Réaliser des vidéos par IA dans Kling AI | Générer du texte à la vidéo et des images à la vidéo | Faizan Amjed | Skillshare
Recherche

Vitesse de lecture


1.0x


  • 0.5x
  • 0.75x
  • 1 x (normale)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Réaliser des vidéos par IA dans Kling AI | Générer du texte à la vidéo et des images à la vidéo

teacher avatar Faizan Amjed, Video Editor,Filmmaker & Youtuber

Regardez ce cours et des milliers d'autres

Bénéficiez d'un accès illimité à tous les cours
Suivez des cours enseignés par des leaders de l'industrie et des professionnels
Explorez divers sujets comme l'illustration, le graphisme, la photographie et bien d'autres

Regardez ce cours et des milliers d'autres

Bénéficiez d'un accès illimité à tous les cours
Suivez des cours enseignés par des leaders de l'industrie et des professionnels
Explorez divers sujets comme l'illustration, le graphisme, la photographie et bien d'autres

Leçons de ce cours

    • 1.

      INTRODUCTION

      0:48

    • 2.

      Comment accéder à Kling AI

      1:52

    • 3.

      Interface IA Kling

      5:14

    • 4.

      Nouvelle interface de KlingAI

      2:24

    • 5.

      Générez des images étonnantes

      7:18

    • 6.

      Essais virtuels de l'IA

      3:46

    • 7.

      KOLORS 1.5 vs KOLORS 1.0

      12:09

    • 8.

      Générer des images avec une cohérence du sujet

      7:19

    • 9.

      Introduction de base pour générer des vidéos par IA

      3:48

    • 10.

      Générez un texte impressionnant pour la vidéo

      4:39

    • 11.

      Créativité vs pertinence

      5:01

    • 12.

      Mouvement de caméra IA

      5:49

    • 13.

      Amorce négative

      2:49

    • 14.

      Générez une image pour une vidéo IA

      3:02

    • 15.

      Cadre de début et de fin

      5:44

    • 16.

      Transformez-vous en Iron Man

      8:54

    • 17.

      Pinceau de mouvement

      16:15

    • 18.

      Vidéos de synchronisation labiale avec l’IA

      5:24

    • 19.

      Étendre la génération de vidéos par IA

      5:29

    • 20.

      kling 1.0 vs kling 1.5 mode Pro

      3:42

    • 21.

      Mode standard Kling 1.5 et Kling 1.0

      3:52

    • 22.

      Cadre de début et de fin 1.5

      9:34

    • 23.

      Pinceau de mouvement de Kling 1.5

      11:25

    • 24.

      Mouvement de caméra avec Kling 1.5

      8:24

    • 25.

      Kling 1.6 vs 1.5 vs 1.0 pour le texte sur vidéo

      9:44

    • 26.

      Mode Kling 1.6 vs mode Kling 1.5 Pro

      7:51

    • 27.

      Mode standard Kling 1.6 vs mode Kling 1.5

      6:46

    • 28.

      Comment synchroniser les labiales avec Kling AI

      5:22

    • 29.

      Éléments

      13:38

  • --
  • Niveau débutant
  • Niveau intermédiaire
  • Niveau avancé
  • Tous niveaux

Généré par la communauté

Le niveau est déterminé par l'opinion majoritaire des apprenants qui ont évalué ce cours. La recommandation de l'enseignant est affichée jusqu'à ce qu'au moins 5 réponses d'apprenants soient collectées.

148

apprenants

1

projets

À propos de ce cours

Apprenez à générer des vidéos IA avec Kling AI, explorez tout le potentiel de Kling AI pour générer des vidéos avec du texte et des images.

Salutations, tout le monde

Je m'appelle Faizan, et je suis un instructeur Skillshare expérimenté.

Si vous souhaitez apprendre les techniques de génération de vidéo Kling par IA, ce cours est fait pour vous. Dans ce cours, vous apprendrez l'IA complète de Kling.

J'ai conçu ce cours pour les apprenants qui réfléchissent à eux-mêmes. En regardant ce cours et en réalisant les activités présentées dans la vidéo, vous apprendrez ces techniques de génération de vidéo.

Je vous ai expliqué chaque petit détail étape par étape et je vous ai facilité la tâche pour que vous puissiez me suivre.

Introduction à Kling AI :

Kling AI est un outil de génération de vidéos qui génère des vidéos à partir d'images et de texte.

  • De l'image à la vidéo

    Convertissez des images en vidéos vives exprimant des idées visuelles créatives

  • Du texte à la vidéo

    Invites d'entrée et générez des vidéos Des visuels de qualité cinématographique

  • Illustrations

    Éveillez l'inspiration, Peignez le monde du texte à l'image et de l'image à image

Ce que vous allez apprendre dans ce cours vidéo sur l'IA :

  • Processus de génération de vidéos par IA Kling

  • Comment générer des images réalistes

  • Comment générer du texte pour les vidéos

  • Comment écrire une invite impressionnante

  • Comment transformer des images en vidéos

  • Comment appliquer différents mouvements de caméra dans les vidéos IA

  • Comment réaliser des vidéos IA avec synchronisation labiale

  • Comment étendre des vidéos avec Kling AI

  • Comment utiliser la dernière version de Kling AI 1.5

  • et plus encore

Rencontrez votre enseignant·e

Teacher Profile Image

Faizan Amjed

Video Editor,Filmmaker & Youtuber

Enseignant·e

I am Faizan, an experienced video editor. Editing has been my profession since 2012. Over the years, I have edited numerous videos for myself as well as for others. My goal is to teach those interested in video editing and graphic designing. I am a software engineer who runs a youtube channel and works as an instructor at Skillshare and Udemy.

Voir le profil complet

Level: All Levels

Notes attribuées au cours

Les attentes sont-elles satisfaites ?
    Dépassées !
  • 0%
  • Oui
  • 0%
  • En partie
  • 0%
  • Pas vraiment
  • 0%

Pourquoi s'inscrire à Skillshare ?

Suivez des cours Skillshare Original primés

Chaque cours comprend de courtes leçons et des travaux pratiques

Votre abonnement soutient les enseignants Skillshare

Apprenez, où que vous soyez

Suivez des cours où que vous soyez avec l'application Skillshare. Suivez-les en streaming ou téléchargez-les pour les regarder dans l'avion, dans le métro ou tout autre endroit où vous aimez apprendre.

Transcription

1. INTRODUCTION: J'ai découvert le pouvoir de Kling AI. Le principal outil de génération vidéo qui transforme facilement du texte et des images simples en vidéos professionnelles captivantes Bonjour, tout le monde. Je m' appelle Faizan Amjad Et dans ce cours, vous apprendrez à générer des vidéos à partir de zéro en utilisant les fonctionnalités époustouflantes de King AI, telles que génération de texte en vidéo et d'image en vidéo. Je vous guiderai à chaque étape, de la génération d' images hyperréalistes à leur intégration fluide dans des vidéos À la fin de ce cours, vous serez doté des compétences nécessaires pour produire du contenu vidéo époustouflant sans effort Alors, qu'est-ce que tu attends ? Inscrivez-vous dès maintenant et libérez votre potentiel créatif avec Kling AI. 2. Comment obtenir l'accès à l'IA Kling: Bienvenue Donc, pour accéder à Cling AI, recherchez Cling AI, et vous devez ouvrir ce lien cling ai.com Une fois que vous aurez cliqué sur le lien, vous serez redirigé vers cette page. Il s'agit de l'interface de cling.com. Ici, vous pouvez vous connecter gratuitement et vous obtiendrez 66 crédits par jour, et le crédit sera également réinitialisé quotidiennement. Maintenant, je vais me connecter gratuitement. Si vous avez un compte, vous pouvez ajouter votre e-mail et votre mot de passe. Mais si vous n'avez pas de compte, inscrivez-vous gratuitement. Cliquez ici Cliquez maintenant sur le bouton suivant. Accédez à votre e-mail et vous recevrez ce numéro de vérification. Copiez et collez ce numéro ici et cliquez maintenant sur ce bouton de connexion. Et maintenant, comme vous pouvez le voir, les gars, nous avons 66 crédits. Je vais maintenant vous présenter l'interface de Cling AI. Ici, comme vous pouvez le voir, les gars, si vous souhaitez générer des images AI, vous pouvez cliquer ici. Et si vous souhaitez transformer ces images ou n'importe quelle image en vidéos, vous pouvez cliquer ici. Vous pouvez également générer vos vidéos AI, et il y aura bientôt un éditeur vidéo dans la fonctionnalité, alors assurez-vous de rester à l'affût. Ici, comme vous pouvez le voir, voici quelques exemples créés avec Ling AI. Maintenant, si vous faites défiler l'écran vers le bas comme vous pouvez le voir, voici quelques images et vidéos d'IA créées avec Ling AI. L'utilisateur de ce site Web a donc créé ces exemples. Vous pouvez donc également vous inspirer de ces images et de ces vidéos. Vous pouvez cliquer sur n'importe quelle image ou vidéo, et ici, comme vous pouvez le voir, voici le message de cette image. Il s'agit du ratio d'image, et il s'agit d'une image de référence, qui n'en est aucune. Cet utilisateur a donc créé cette image en utilisant tout dans l'invite sans image de référence. Voici donc l' interface de Ling AI. 3. Interface d'IA de Kling: Bon retour. Nous allons maintenant créer quelques images de base afin que vous puissiez mieux comprendre Cling AI. Cliquez sur ces images d'IA. Vous serez redirigé vers cette interface. Ici, vous pouvez taper n'importe quelle invite. Vous pouvez générer n'importe quelle image. Vous pouvez également référencer votre image si vous souhaitez générer un résultat similaire en fonction de votre référence. Hé, vous pouvez sélectionner votre ratio hauteur/largeur, et ici vous pouvez sélectionner le nombre de générations selon votre demande spécifique. Votre résultat sera affiché dans cette section de ce site Web. Cling AI prend 0,20 crédit pour générer une image. Nous générons quatre images, il faudra donc 0,80 crédit Pour la vidéo, il faudra dix crédits. Vous obtiendrez 66 crédits et ils expireront dans 24 heures. Si, par exemple, vous utilisez 20 crédits sur ces 66, ils seront remis à 66 le jour suivant. Tapons maintenant une invite simple. Je vais donc taper un verre d'eau sur le dessus d'une table. Maintenant, comme vous pouvez le voir, les gars, si je baisse le nombre de générations, cela réduira également mes crédits. Nous allons donc générer pour la génération, et sélectionnons ce rapport hauteur/largeur. Maintenant, nous n'avons aucune image de référence, alors cliquons sur générer. Maintenant, gardez cela à l'esprit, nous utilisons le compte gratuit, il faudra donc un certain temps pour générer vos images ou vidéos. Désormais, vous n'avez plus à attendre votre génération, vous pouvez également saisir votre prochaine invite. Maintenant, comme vous pouvez le voir, les gars, nous avons ces images, et ce sont des images époustouflantes. Vous pouvez maintenant taper n'importe quelle invite et générer n'importe quelle image que vous souhaitez générer. Maintenant, comme vous pouvez le voir, les gars, si je place ma souris sur une image, nous avons trois options. L'un est amélioré , disponible pour les utilisateurs premium. Ne t'inquiète pas J'ai un compte premium, je vais donc vous montrer tout ce que possède ce site Web. Ici, comme vous pouvez le voir, nous pouvons utiliser cette image comme référence, et ici, nous pouvons donner vie à cette image. Je vais donc sélectionner cette image. Donnez vie à cette image. Et comme vous pouvez le voir, les gars, il faudra dix crédits pour générer cette image. Cliquez sur ce bouton de génération. Maintenant, comme je vous l'ai dit plus tôt, vous n'avez pas à rester assis ici à attendre quelques minutes ou peut-être des heures pour voir votre image se convertir en vidéo. Vous pouvez générer la vidéo suivante si vous le souhaitez. Donc, comme vous pouvez le voir, les gars, si nous revenons au tableau de bord, fermons celui-ci, nous cliquons sur ces vidéos d'IA. Maintenant, comme vous pouvez le voir, ce site Web génère maintenant notre vidéo. Nous avons ici la première option, qui est le texte en vidéo. Donc, en gros, c'est similaire aux images d'IA. Si je tiens ma souris ici, nous pouvons accéder aux images de l'IA. Nous pouvons taper n'importe quelle invite. C'est donc similaire à la vidéo textuelle. Nous pouvons maintenant générer n'importe quelle vidéo si vous souhaitez simplement taper une invite. Vous pouvez sélectionner cette invite. Par exemple, vous pouvez sélectionner le moment de votre caméra Je vais donc sélectionner «  Jusqu'à » et maintenant, générons cette vidéo. Comme vous pouvez le voir, les gars, je peux générer plus d'une vidéo sans avoir à attendre. Ainsi, vous pouvez générer plusieurs vidéos en même temps. Maintenant, je sais qu'il y a tellement de fonctionnalités sur ce site Web. Alors ne paniquez pas. Ceci n'est qu'une introduction au site Web. Je vais vous présenter toutes les fonctionnalités de Cling AI, et nous créerons de superbes images et vidéos à l'aide de cet outil d'IA. Nous avons donc le résultat. Cela a donc transformé mon image en une magnifique vidéo. Maintenant, nous avons également cette vidéo. Nous générons cette vidéo via cette invite. Il y a maintenant une énorme différence entre le compte premium et le compte gratuit de King AI. La première différence est que vous ne pouvez pas utiliser Kling 1.5 si vous utilisez le compte gratuit de Kling AI. La deuxième différence, qui est très énorme, c' est qu'il vous a fallu plus de temps si vous utilisez le compte gratuit pour générer vos clips que le compte premium. Alors, croyez-moi ou non, il m'a fallu deux jours pour générer ce clip. Parfois, il génère votre clip très rapidement et parfois il le génère très lentement. À ce point qu'il n'a pas réussi à générer votre résultat. Et une fois qu'il n'aura pas généré votre résultat, il vous remboursera votre crédit. Donc, comme vous pouvez le voir, les gars, mon crédit est supérieur à 66. La limite du compte gratuit est de n'avoir que 66 crédits pendant 24 heures. Pourquoi n'ai-je pas plus de 66 crédits ? Parce que j'ai tellement de générations ratées, cela vous remboursera vos crédits et cela ajoutera votre crédit à vos crédits actuels. Vos crédits expireront dans 24 heures Que vous utilisiez tous ces crédits ou non, ils seront réinitialisés à 66 crédits. Il ne s'agit donc que d'une introduction de base à Kling AI. J'ai un compte premium, nous allons donc approfondir cet outil et explorer son plein potentiel pour générer les résultats souhaités. Je vous verrai donc lors de la prochaine conférence. 4. Nouvelle interface de KlingAI: Bienvenue à tous. L'interface adhésive a donc un peu changé. Si vous regardez les vidéos sur l'IA, si vous passez de l'image à la vidéo, comme vous pouvez le voir, les gars, avant cette mise à jour, nous avions une fonctionnalité appelée end frame, et nous pouvons activer ou désactiver cette fonctionnalité à partir d'ici. Mais dans la nouvelle mise à jour, nous n'avons pas cette fonctionnalité. Parce que si vous téléchargez votre image, nous avons donc par défaut cette interface. Nous pouvons maintenant télécharger le cadre final ici. Et si vous souhaitez remplacer le cadre en étoile par le cadre final, vous pouvez également le remplacer par ce symbole, en cliquant dessus. Il remplacera le cadre de départ par le cadre de fin. Et si vous souhaitez remplacer le cadre de fin par le cadre de départ, cliquez à nouveau sur ce symbole. Il échangera votre cadre. Désormais, si vous ne souhaitez pas générer de vidéo du début à la fin, vous pouvez également utiliser l'image unique pour générer vos vidéos AI. Maintenant, si vous vous souvenez, si vous passez de la version 1.0 à la version 1.5, Motion Brush sera désactivée et le moment de la caméra sera également désactivé. Mais si vous sélectionnez votre mode professionnel, le mouvement de la caméra est désormais activé, et nous avons également un pinceau de mouvement. Vous pouvez maintenant utiliser le pinceau de mouvement et le moment de la caméra dans Cling 1.5 en mode professionnel. Nous avons également ce changement. Dans l'interface précédente, nous n'avions qu'un mode professionnel, mais maintenant vous pouvez également utiliser le mode standard, et le mode standard de 1,5 prendra 20 crédits. Et si vous changez le modèle en 1.0, il vous faudra dix crédits. Je pense donc que c'est une mise à jour incroyable. Nous avons également une nouvelle fonctionnalité. Si vous accédez aux images AI, cette fonctionnalité s'appelle AI virtual Tryon Vous pouvez donc essayer des vêtements sur vous-même ou sur n'importe quel modèle, et cela aura l'air réaliste. Il s'agit donc essentiellement de la nouvelle interface de Kling AI. 5. Générer des images époustouflantes: Bon retour. Maintenant, tout d'abord, cliquez sur A et accédez aux images AI. Il existe deux manières de générer votre image. La première consiste à rédiger votre invite. Dans le second cas, vous pouvez référencer une image. Si vous souhaitez créer un résultat similaire, vous pouvez référencer une image pour créer votre résultat en fonction de cette image. Maintenant, comme vous pouvez le voir, les gars, j'ai généré tellement d'images incroyables dans cet outil parce que j'écris plus que quelques mots pour obtenir des résultats impressionnants. Maintenant, si vous utilisez le compte premium, vous pouvez également améliorer votre image. Ainsi, par exemple, si vous cliquez ici, vous pouvez survoler votre souris, et nous avons une option appelée améliorer Si je clique dessus, cela améliorera mon image. Cela transformera cette image en une meilleure définition. Maintenant, comme vous pouvez le voir, les gars, voici mon résultat. Voici le résultat précédent, et voici mon nouveau résultat. Vous pouvez également passer votre souris ici. Si vous utilisez le compte premium, vous pouvez également télécharger ce résultat sans filigrane Dans un compte gratuit, vous téléchargerez n'importe quelle image de votre choix, mais vous aurez également un filigrane avec cette image Il s'agit d'un compte premium sur lequel nous n'avons aucun filigrane. Et si vous utilisez un compte gratuit, vous aurez un filigrane comme celui-ci Maintenant, si vous voulez créer des résultats impressionnants, vous devez écrire plus que quelques mots. Alors, comment peux-tu trouver tes mots ? Accédez à designer.miicrosoft.com, connectez-vous, cliquez ici et vous devez sélectionner des images Nous pouvons maintenant fermer cet onglet. Maintenant, ce que vous devez faire, c'est cliquer ici et écrire votre message. Donc, par exemple, je vais écrire. s'agit donc que d'un simple gros plan d'un hamburger dans un hôtel Il existe maintenant une option appelée invite améliorée. Et ce qu'il fait, c'est que si je clique sur cette invite améliorée, cela ajoute quelques mots pour rendre cette invite impressionnante. Nous pouvons maintenant copier cette invite. Nous pouvons aller voir l'IA meurtrière. Collons cette invite, et nous pouvons sélectionner notre résolution. Vous pouvez sélectionner votre ratio. Je vais donc sélectionner celui-ci. Vous pouvez sélectionner le nombre de générations que vous souhaitez générer. Je vais en sélectionner quatre. Et maintenant, cliquons sur ce bouton générer. Revenons maintenant à Microsoft Designer et nous pouvons sélectionner n'importe quelle résolution ici. Nous pouvons maintenant cliquer sur ce bouton de génération et il générera ce résultat. Ce sont toutes les images que nous avons générées via cette invite. Nous pouvons maintenant améliorer et nous pouvons également référencer cette image si vous le souhaitez. Nous pouvons également donner vie à cette image. Voici le résultat de Microsoft Designer, et j'aime bien celui-ci. Puis le ling AI. Donc, ce que nous pouvons faire, nous pouvons simplement cliquer sur ce téléchargement, accéder à l'IA Ling. Nous pouvons cliquer sur A pour référencer cette image. Maintenant, avant de générer le résultat en fonction de l' image de référence, il y a un curseur Nous avons zéro plus, et nous avons trois plus, ici, nous avons moins et nous avons trois moins. C'est donc la force de votre référence. Si vous placez votre force à zéro, le résultat sera généré fonction de cette image exacte. Si vous placez votre curseur sur le côté positif, il ajoutera simplement quelque chose à votre image Et si vous placez votre curseur sur le côté négatif, alors il faudra quelque chose de By Je vais vous montrer tous les résultats fonction de ce curseur Donc, tout d'abord, essayons cette position zéro. Et d'ailleurs, si vous faites référence à une image, il faudra 0,40 crédit pour référencer cette image Donc, sans aucune référence, vous pouvez générer quatre images en 0,80 crédits, mais nous avons une référence, donc maintenant nous avons 1,20 Maintenant, cliquez sur ce bouton de génération pour générer les résultats en fonction de la référence. Nous n'avons pas à attendre que le résultat soit généré. Nous pouvons prendre ce curseur du côté positif et maintenant, cliquons sur ce bouton en forme de volet Maintenant, je peux faire passer le curseur à la taille trois plus, et maintenant nous pouvons générer des résultats Maintenant, placez le curseur sur le signe négatif. Nous avons maintenant ces résultats. La force est fixée à zéro et les résultats sont étonnants. Maintenant, si vous définissez votre force plus, cela modifiera quelque chose sur vos images. Comme vous pouvez le constater, les gars, si vous passez à l'image d'origine avec l'intensité réglée à zéro, n'avez rien dans nos assiettes, mais si vous optez pour l'intensité positive, comme vous pouvez le voir, les gars, cela ajoute simplement quelque chose à votre image. Nous avons donc ajouté ces morceaux de pain à notre hamburger. Et si nous passons au plus, cela ajoutera quelque chose de plus à votre image. Dans le triple inconvénient, il ignore simplement ma chambre d'hôtel et place mon hamburger sur une table. Et dans un seul inconvénient, cela reprendra juste quelque chose de l'image. Donc, pour expliquer cette force, si vous la définissez à zéro, cela générera exactement le même résultat selon votre référence. Mais si vous placez votre curseur sur le côté positif, il ajoutera quelque chose à votre image Si vous placez votre curseur sur le côté gauche, il reprendra quelque chose de votre image Il y a un autre exemple que je voudrais vous expliquer. Donc, avec l'invite, j'ai généré ces résultats. Avec l'image de référence dont l'intensité est réglée sur le signe plus, comme vous pouvez le voir, les gars, il suffit de modifier quelque chose dans mon image. Lorsque la force est réglée à zéro, cela génère exactement les mêmes résultats. Et avec cette intensité réglée sur le triple moins, il prend tout ce qui se trouve dans mon image et génère simplement le vecteur de l'image. Maintenant, en revoyant mes résultats, j'ai remarqué quelque chose Avec cette intensité nulle, vous pouvez voir que nous avons des images normales, mais avec cette intensité réglée sur le plus, vérifiez la taille du hamburger. La taille du hamburger augmente également. Il s'agit donc d'une taille normale. Il s'agit d'une taille plus, et il s'agit de trois tailles plus. Vérifiez la taille du hamburger. La taille du hamburger augmente également. Maintenant, si nous passons aux trois points négatifs, la taille du hamburger diminue. Et ce n'est qu' un résultat négatif. Maintenant, dans mon deuxième exemple, je remarque également cela. Avec cette référence, mes objectifs sont minces, mais avec une force fixée à trois points positifs, comme vous pouvez le voir, les gars, mon or grossit. Avec une intensité nulle, nous avons une taille normale, et avec un sinus négatif, elle devient de plus en plus petite. Et cela supprime également quelque chose de ma référence, et cela génère simplement cette image. Vous devez donc également en tenir compte lorsque vous utilisez la force de référence pour générer votre image. C'est ainsi que vous pouvez générer des images AI dans cling.com. Au revoir. Je vous verrai lors de ma prochaine conférence. 6. Essais virtuels de l'IA: Bon retour, tout le monde. Donc, si vous passez aux images de l'IA, nous avons une nouvelle fonctionnalité appelée AI virtual Tryon Vous pouvez donc essayer n'importe quelle chemise, n'importe quel stylo, vous pouvez essayer n'importe quel vêtement sur vous-même. Ou si vous faites défiler l'écran vers le bas, vous pouvez également utiliser ce modèle. Et comme vous pouvez le voir, les gars, voici quelques exemples. Nous avons donc deux options. Nous avons d'abord des vêtements individuels, puis des vêtements multiples. Donc, tout d'abord, je vais sélectionner cette chemise. Maintenant, si vous faites défiler l'écran vers le bas, je vais utiliser ce modèle. Et maintenant générons. Générons une sortie. Et comme vous pouvez le voir, les gars, il est en train de générer ce vêtement sur ce modèle. Et comme vous pouvez le voir, les gars, juste comme ça, nous avons ce vêtement pour cette personne ou pour ce modèle. Essayons maintenant plusieurs vêtements. Donc, tout d'abord, je vais télécharger le haut, donc je vais sélectionner cette chemise. Il n'est pas nécessaire de retirer le fond du vêtement. Vous pouvez également utiliser cette image. Maintenant, je peux utiliser ce stylo noir. Maintenant, si vous faites défiler l'écran vers le bas, nous avons une autre option appelée personnalisée. Maintenant, je vais télécharger mon image ici. Maintenant, l'image est téléchargée avec succès. Créons ce vêtement sur moi-même. Et comme vous pouvez le voir, les gars, nous avons cette chemise et cette peinture ici. Maintenant, si vous passez votre bouche sur votre image, nous avons une autre option appelée Expand Maintenant, nous pouvons cliquer dessus et nous pouvons passer à un ratio. Je vais donc sélectionner ce ratio et cliquer immédiatement sur Agrandir l'image. De cette façon, vous pouvez changer vos images verticales horizontales, vous pouvez changer votre image en n'importe quel autre rapport hauteur/largeur. Et comme vous pouvez le voir, c'est le résultat final. Je vais maintenant vous montrer un autre exemple. Donc, comme vous pouvez le voir dans le guide, c'est le bas et c'est le haut. Je vais cliquer sur ce rechargement. Et si vous avez une image comme celle-ci, vous pouvez sélectionner cette image, elle recadrera automatiquement l'image et sélectionnera le bas. Et maintenant, si je retélécharge et sélectionne cette image, elle sélectionnera automatiquement le haut, comme vous pouvez le voir Maintenant, nous allons cliquer sur le bouton Générer. Et comme vous pouvez le constater, les gars, nous avons ce résultat. Maintenant, si vous ouvrez cette image, téléchargez-la. Ouvrons cette image. Et si nous zoomons comme vous pouvez le voir, les gars, nous avons un petit problème ici. Si vous avez une barbe dans le modèle, vous obtiendrez ce genre de résultat. Mais changeons de modèle pour le recommander. Et cette fois, sélectionnons ce modèle et cliquons sur générer. Maintenant, comme vous pouvez le voir, les gars, nous avons ce résultat. Maintenant, je vais sélectionner une autre image cette fois, et maintenant cliquons sur Générer pour augmenter le nombre de sorties. Et comme vous pouvez le voir, les gars, nous avons maintenant ces sorties. Les résultats sont aujourd'hui assez étonnants. Élargissons-le encore à une forme verticale et c'est parti. C'est ainsi que nous pouvons essayer différents vêtements sur le modèle ou sur vous-même à l' aide la fonction AI Virtual Tryon de Kling AI 7. KOLORS 1.5 vs KOLORS 1.0: Reviens. Nous avons donc obtenu un nouveau modèle de génération d'images appelé close 1.5. Avant ce modèle, nous en avions une version 1.0. Maintenant, je vais comparer les deux avec la même invite. Maintenant, ces exemples concernent la version 1.5, et comme vous pouvez le voir, les gars, avec cette invite, nous avons obtenu ces résultats. Maintenant, avec exactement la même invite, avec 1.0, nous avons obtenu ces résultats. Voyons maintenant un autre exemple. Avec cette invite, c'est 1.0, ce qui n'est pas mal, mais avec 1.5, nous avons obtenu ces résultats. Maintenant, la principale différence entre 1,5 et 1,0 est que 1,5 génère des images réalistes. autre côté, la version 1.0 génère des images impressionnantes, mais elles semblent avoir été générées par l'IA. Et comme vous pouvez le constater, cela ressemble à une image artificielle. Mais si vous regardez le résultat de 1,5, il me semble plus réaliste que 1,0. Nous avons un autre exemple. Avec cette invite, cela donne 1,5 résultat. Et comme vous pouvez le voir, les résultats sont plutôt bons. Maintenant, avec la même invite, nous avons 1.0. Et comme je vous l'ai dit plus tôt, c'est plus artificiel pour moi que 1,5, car 1,5 ressemble plus à une image réaliste que 1,0. Nous avons maintenant un autre exemple. Avec cette invite, nous avons obtenu ce résultat qui n'est pas mal. Mais avec exactement le même message avec 1.5, nous avons obtenu ces résultats. Maintenant, dites-moi laquelle est bonne, celle-ci ou celle-ci. De toute évidence, 1,5 semble plutôt bien. Maintenant, avec cette invite, nous avons obtenu ces résultats et avec exactement la même invite avec la version 1.0, nous avons obtenu ce résultat. Avec cette invite, avec 1.0, nous avons obtenu ces résultats et avec 1.5, nous avons obtenu ces résultats. Maintenant, dans cet exemple, la version 1.0 est magnifique, mais dans la version 1.5, dont je vous ai parlé plus tôt, l'image davantage axée sur le réalisme que sur l'imagination. 1.5 pousse l'image vers l' imagination, mais 1.5 génère une image réaliste. Maintenant, si vous tapez quelque chose comme l'imagination pure dans cette invite, comme vous pouvez le voir, les gars, c'est un scénario purement imaginaire. Avec 1.0, nous avons obtenu ces résultats. Avec 1,5, nous avons obtenu ces résultats. Dans cet exemple, la version 1.0 génère des résultats impressionnants, car il s'agit d'une pure imagination par rapport au monde réel. Mais 1,5 essaie de générer des résultats réalistes, mais je pense que 1,0 gagne celui-ci. Maintenant, avec ce bal de fin d'année, c'est un scénario purement imaginaire. Il s'agit de 1,0 déserts et 1,5 avec exactement le même message, c'est vrai que nous avons obtenu Et 1.5 bat juste 1.0 parce que, comme vous pouvez le voir, les gars, cela ressemble à une image réaliste D'un autre côté, la version 1.0 ressemble à un concept art. Nous avons maintenant un autre exemple. Avec cette invite, il s'agit de 1,0 résultat, et avec exactement la même invite, il s'agit de 1,5. Et comme vous pouvez le voir les gars, 1.5 génère une image réaliste. Maintenant, j'essaie de générer des images vectorielles en utilisant cette invite, et comme vous pouvez le voir avec la version 1.0, nous avons obtenu ces résultats, ce qui n'est pas mal. Mais avec 1,5, il génère ce que je lui demande de générer. Parce que je copie cette invite, je vole ce bal de fin d'année au designer domicrosoft.com AzkacGuide c'est le résultat de Microsoft Designer. J'ai copié cette invite et je l'ai reproduite ici, et nous avons obtenu ce résultat. Maintenant, avec cette invite, avec la version 1.0, nous avons obtenu ces résultats. Et si nous passons à 1,5, nous obtenons ces résultats, qui sont impressionnants car si vous regardez la combinaison de couleurs, et si vous regardez le graphique, 1,5 génère une image réaliste puis 1,0. Comme vous pouvez le voir, le graphique n'est pas aligné correctement en 1.0 , mais en 1.5, nous avons obtenu un graphique réaliste et un chiffre réaliste, et nous avons une bonne combinaison de couleurs, puis 1.0. J'essaie maintenant de générer des images animées en trois dimensions. Avec cette invite. Nous avons obtenu 1,0 résultat. Comme vous pouvez le voir, ce sont des résultats effrayants car je lui demande de générer une animation en trois dimensions. Mais avec 1.5, nous avons obtenu ce beau résultat car 1.5 génère une image dualiste C'est pourquoi nous obtenons ce que nous lui demandons de générer. Si vous essayez de générer des images de style anime, vous pouvez également le faire. Avec cette invite, comme vous pouvez le voir dans le guide, cela donne 1,5 résultat, ce qui est très impressionnant. Dans cet exemple, 1.5 ressemble une image de style anime fini, mais 1.0 ressemble à un concept art. Nous avons un autre exemple. Avec cette invite, avec 1.0, nous avons obtenu ces résultats, et avec exactement la même invite, nous avons 1,5 résultat. Maintenant, avec cette invite, nous avons un résultat de 1,0, et avec exactement la même invite, nous avons un résultat de 1,5. Et 1,5 pour générer ce que je lui demande de générer, je le demande à un homme portant un masque de ski assis sur un canapé et devant un grand feu en arrière-plan. Et c'est ce que génère la version 1.5, et la version 1.0 génère simplement ces types d'images que je n'aime vraiment pas. Une autre chose que je remarque dans la version 1.5 par rapport à la version 1.0, c'est que la version 1.0 contient un certain adoucissement artificiel dans ces images, mais que la version 1.5 génère des images sans aucun adoucissement artificiel Comme vous pouvez le voir, les gars, cela ressemble à une caméra de cinéma. Et si nous passons au résultat 1.0, ces images présentent un certain adoucissement artificiel Nous avons maintenant un autre exemple de 1.5. Je viens de modifier quelques mots clés dans mon invite et nous avons obtenu ce résultat de 1,5. Maintenant, comme vous pouvez le voir dans la version 1.0, encore une fois, nous avons un adoucissement artificiel Il semblerait que j'améliore une image de faible qualité, et voici le résultat final Avec ce bal de fin d'année, nous avons 1,5 résultat, et avec exactement le même bal de fin d' année, nous avons un résultat de 1,0 résultat. Parlons maintenant des images vectorielles. Avec 1,5 avec ce bal de fin d'année, nous avons obtenu ces résultats. Avec 1.0, nous avons obtenu ces résultats, qui sont impressionnants par rapport à 1,5. La combinaison de couleurs est bonne. En arrière-plan, la couleur rouge est bonne, mais d'un autre côté, 1,5 couleur rouge me tue les yeux. Maintenant, avec cette simple invite, 1.0 génère ces images, ce qui est un peu artificiel, comme je vous l'ai dit plus tôt. Mais 1.5 écrase également 1.0 dans cet exemple. Maintenant, avec cette invite, nous avons 1,0 résultat et avec exactement la même invite, nous avons 1,5 résultat. Nous avons maintenant un autre exemple. Avec cette invite, j'ai un résultat 1.0. Avec exactement le même message, nous avons un résultat de 1,5. Maintenant, 1.5 donne l'impression que je prends une photo de cette scène avec mon appareil photo, en 1.0, mais en 1.0, nous avons l'impression que cela est généré par l' intelligence artificielle. Nous avons maintenant un autre exemple. Avec cette invite, nous avons un résultat de 1,0 et avec exactement le même bal, nous avons un résultat de 1,5. Et comme vous pouvez le constater, 1.5, essayez de générer une image réaliste autant que possible. Nous avons maintenant un autre exemple. C'est l'invite, et il s'agit du résultat 1.0. Et avec exactement le même bal de fin d'année, c'est un résultat de 1,5. Et comme vous pouvez le voir, les gars, 1.5 image réaliste générale, puis 1.0. Nous avons maintenant un autre exemple. W 1.0, c'est l'invite. Ce sont des résultats de 1,0, et avec exactement le même bal, nous avons un résultat de 1,5. Avec ce simple POE de promo d'une voiture, c'est 1,5, et avec exactement le même prom, c'est 1,0 résultat. Maintenant, encore une fois, nous avons également une image vectorielle. Avec cette invite, nous avons un résultat de 1,0, mais avec exactement la même invite, nous avons un résultat de 1,5. 1.5 essaie donc de générer un vecteur réaliste, mais la version 1.0 contient quelques détails. Donc, lorsque nous essayons de comparer ces deux modèles, si vous souhaitez générer des images vectorielles, je pense que 1.0 est la meilleure option. Mais si vous voulez simplifier votre vecteur, essayez d'utiliser 1.5 car 1.5 simplifie vos images vectorielles autant que possible, mais 1.0 contient des détails dans ses images vectorielles. Maintenant, recréons cette image à l'aide de l'IA de liens Je vais donc copier cette invite Voici le résultat de ce bal de fin d'année utilisant Microsoft Designer. Maintenant, collons cette invite et générons une image. Maintenant, une autre différence majeure entre 1.0 et 1.5 est que si vous voulez générer une image en utilisant 1.0, il vous faudra 0,20 crédits Mais si vous passez votre modèle à 1,5, il vous faudra un crédit par image. Donc, si vous souhaitez générer quatre images, il vous faudra vos quatre crédits. Maintenant, cliquons pour générer avec 1.5. Maintenant, c'est un résultat de 1.0 avec cette invite, et les résultats ne sont pas mauvais. Je suis vraiment impressionné par le résultat de ce bal de fin d'année en version 1.0. Maintenant, avec 1.5 avec exactement le même message, nous avons obtenu ces résultats. qui n'est pas mal non plus, mais pour une raison ou une autre, j'aime bien le résultat 1.0. Maintenant, si nous revenons à la source d'origine, en revanche, je pense que 1.5 essaie de générer une image réaliste en fonction de cette invite. Mais la version 1.0 génère sa propre version de cette invite. Si vous souhaitez enregistrer vos crédits, je vous recommande d'utiliser une image, générer les résultats des deux modèles, puis si vous aimez un résultat de modèle, utiliser ce modèle et d'en générer quatre si vous le souhaitez. Parce que si vous générez quatre images, vous obtiendrez des variations différentes. Si nous comparons ces quatre images, nous avons de petites différences entre ces images. Il en va de même pour ce modèle 1.5. Nous avons de petits changements dans quatre images. Et dans le résultat final, il a simplement changé l'angle de la caméra. 8. Générer des images avec une cohérence du sujet: Bon retour, tout le monde. Donc, si vous changez de modèle de Cro 1.0 à 1.5, si vous passez du texte à l'image, comme vous pouvez le voir, les filles, nous avons une nouvelle fonctionnalité pour la version 1.5 appelée Upload a reference. Désormais, lorsque vous téléchargez une référence, vous devez sélectionner un sujet. Nous avons maintenant cette image comme référence. Donc, pour créer ce genre d'images, il faut aller sur AbstodGoogle Maintenant, une fois que vous accédez à Labs point Google, vous devez sélectionner les effets d'image. Et maintenant, si nous ouvrons mon image d'origine, c'est le bal que j'utilise pour générer cette image à l'aide des effets d'image Google de Labs. Maintenant, une fois que nous avons téléchargé la référence, nous avons trois options. Soit nous pouvons sélectionner l'ensemble du sujet, nous pouvons sélectionner uniquement la référence de phase soit nous pouvons sélectionner l'image entière. Maintenant, vous devez garder cela à l'esprit, si vous sélectionnez l'image entière, le modèle passera de 1,5 à 1,0. Supposons donc que nous sélectionnions l'image entière. Je vais confirmer, et comme vous pouvez le voir, les gars, nous avons maintenant le cloud 1.0. Et maintenant, si nous passons la souris sur ce petit aperçu de cette image, si nous cliquons ici, c'est l'édition. Si nous sélectionnons la phase du sujet, et maintenant si je clique sur ce bouton confirmé, comme vous pouvez le voir, le modèle passe désormais de 1.0 à 1.5. Si nous passons à la version 1.0, la référence continuera. Maintenant, téléchargeons à nouveau la référence. Et maintenant, cette fois, je vais sélectionner la phase. Cliquons sur Confirmer. Maintenant, une fois que vous avez sélectionné la phase de votre référence, vous pouvez taper tout ce que vous voulez que ce sujet fasse. Maintenant, si vous modifiez votre force de référence à 100, il copiera le trait exact du visage de votre sujet. Modifions-le donc à 50 %. Maintenant, je vais taper un garçon assis sur un canapé dans un studio et taper un éclairage spectaculaire. Et comme vous pouvez le constater, il faudra deux crédits pour chaque image avec la référence. Et si vous supprimez la référence, il faudra un crédit par image. Nous avons donc quatre variantes. C'est pourquoi nous avons huit crédits. Et maintenant, générons ces images. Maintenant, avec exactement la même invite, passons à la modification, et maintenant je vais sélectionner l'ensemble de mon sujet. Donc, si vous sélectionnez la phase, elle copiera votre visage comme référence. Mais si vous sélectionnez le sujet, il copiera l'intégralité de votre sujet. Cela inclut ses vêtements, etc. Cliquons sur Confirmer, puis sur Générer. Comme vous pouvez le voir, les gars, nous avons obtenu ces résultats. Maintenant, comme vous pouvez le constater, nous avons obtenu ce beau résultat. Et si nous revenons à la source d'origine, comme vous pouvez le voir, les gars, nous avons cette phase comme référence, et ce sont de nouvelles images entièrement générées par l' IA. Maintenant, nous pouvons également modifier la référence, ainsi que la référence de phase du sujet. Maintenant, comme vous pouvez le voir, les gars, il a copié ma référence de phase à 45 % de cette image. Si nous le changeons à 100 %, il copiera cette phase exacte. Alors faisons-le. Revenons aux résultats de la phase sélectionnée, et je vais changer ma référence à 100 %. Maintenant, avec exactement la même invite, passons à l'édition. Et cette fois, je vais sélectionner l'image entière. Et maintenant, nous avons le modèle 1.0. Et avec la référence, il faudra 0,30 crédit par image. Nous allons donc générer quatre variantes. Les images sont donc maintenant générées. Avec la référence de phase, une force de 100 %, c'est ce que nous avons également obtenu avec la référence au sujet. Maintenant, avec seulement la référence de phase, comme vous pouvez le voir, les gars, nous avons obtenu le résultat. Et comme je vous l'ai dit tout à l'heure, il ne fera que copier votre visage. C'est pourquoi nous avons des coiffures différentes dans ces quatre variantes. Nous avons maintenant la référence complète de l'image, et c'est ce que nous avons obtenu avec la version 1.0. Maintenant, sélectionnons un autre sujet. Je vais supprimer ce sujet. Maintenant, si nous revenons aux laboratoires pointillons les effets Google Image avec cette invite, j'ai généré cette image. Alors téléchargeons cette image. Maintenant, je vais sélectionner ce sujet, cliquer sur Confirmer et avec exactement la même invite. Avec une référence de phase à 100 %, nous pouvons générer laissons cet aspect apparaître. Et maintenant, générons-les pour les faire varier. Maintenant, comme vous pouvez le voir, les gars, nous avons ces images. Changeons également la référence du sujet à 100 %, et je vais changer ma référence de rythme à 60 % parce que je veux IA prenne la référence du sujet, pas trop, et je veux que le sujet soit habillé à 100 %. C'est pourquoi je change mon fil à 100 %. Nous allons générer ces résultats. Maintenant, comme vous pouvez le voir, les gars, nous avons obtenu ces résultats. Nous entrons maintenant dans une phase différente parce que je tape un garçon et que nous changeons le mot clé hommes et maintenant générons. Comme vous pouvez le voir, les gars, dans les nouveaux résultats générés, il faut 100 % de référence à mon sujet. Comme vous pouvez le voir, si nous revenons à la référence de la source d'origine, passons à la modification. Nous avons cette veste, et si nous examinons les images générées, nous avons la même veste. Et maintenant, comme vous pouvez le voir, les gars, nous avons obtenu ces résultats. La raison pour laquelle cette fonctionnalité d'image de référence est importante est que vous pouvez désormais générer des images cohérentes, et avec ces images cohérentes, vous pouvez également transformer vos images en vidéos. Donc, si nous revenons au correcteur animé, comme vous pouvez le voir, les gars, nous pouvons emmener ce garçon n'importe où On peut donc aussi taper assis sur un canapé ou assis dans une voiture. Maintenant, avec cette invite, il va générer des images, et maintenant nous pouvons transformer ces images en vidéos. De cette façon, vous pouvez créer des vidéos cohérentes avec la même cohérence de sujet. Alors maintenant, comme vous pouvez le constater, nous avons le même sujet dans une voiture. Nous pouvons remplacer le fait de rester assis dans une voiture par celui de conduire une voiture. Ajoutons une virgule avec un éclairage spectaculaire. Tournons à droite. Et maintenant, comme vous pouvez le constater, nous avons obtenu ces résultats. Nous pouvons donc maintenant créer des vidéos de personnages cohérentes en utilisant cette fonctionnalité de référence de Ling AI. 9. Introduction de base pour générer des vidéos par IA: Bon retour. Vous devez maintenant cliquer ici et accéder aux vidéos pour générer des clips à l'aide de Cling AI. Il existe maintenant plusieurs façons de générer des clips à l'aide de Cling AI. Le premier est un SMS vers une vidéo. Dans le texte converti en vidéo, vous devez saisir une invite afin de générer un clip. Alors maintenant, faisons-le. Maintenant, j'ai cette invite. Vous pouvez copier exactement cette même invite dans les paramètres. Comme vous pouvez le voir, les gars, il faut glisser. Nous avons de la créativité et de la pertinence. Maintenant, dans le mode, nous avons le mode standard et le mode professionnel. Si vous utilisez le compte gratuit, vous n'aurez accès qu' au mode standard. Voyons maintenant le mode standard pour cet exemple. Nous avons maintenant une durée de cinq à dix secondes. Nous avons le format d'image que vous pouvez également modifier. Vous pouvez sélectionner le rapport hauteur/largeur de votre choix. Nous avons maintenant le nombre de générations. À l'heure actuelle, je suis passé à une génération vidéo. Maintenant, en dessous du rapport hauteur/largeur, nous avons les moments de caméra. Si vous cliquez ici, nous avons tellement de moments devant la caméra. Maintenant, en dessous des moments de caméra, nous avons un bal négatif. Alors, qu'est-ce que le bal de fin d'année négatif ? Une promotion négative est quelque chose que vous ne voulez pas voir apparaître dans votre vidéo générée. Par exemple, si vous ne voulez pas que votre vidéo soit floue, saisissez-le simplement Si vous ne voulez pas de distorsion ou quelque chose comme une violation du cadre, vous pouvez taper ce mot ici et cela ne le générera pas dans votre vidéo. Maintenant, cliquons sur ce bouton de génération. J'utilise donc également Microsoft Designer pour cette invite. Comme vous pouvez le voir, les gars, c'est le résultat de cette invite dans Microsoft Designer. Maintenant, je pense que nous aurons un résultat différent de celui-ci, car il a été généré dans Microsoft Designer, et nous utilisons le King Eye, qui sont deux types d'outils totalement différents. Pendant la génération de la vidéo sur le côté droit, nous aurons les résultats des vidéos générées. Comme vous pouvez le voir, les gars, je génère tellement de vidéos. Vous pouvez cliquer ici pour transformer vos vidéos en texte en vidéo. Ce sont donc tous mes textos en vidéo. Vous cliquez ici, vous pouvez changer cela en image en vidéo. Ce sont toutes mes images transformées en vidéos AI, et vous pouvez également sélectionner toutes les vidéos, toutes les vidéos seront affichées sur le côté droit. Vous pouvez également cliquer ici. Vous pouvez également passer de la vue simple à la vue détaillée. Maintenant, en vue détaillée, comme vous pouvez le voir, voici la nouvelle vidéo que je génère à l'aide de cet outil. Ce sont toutes mes anciennes vidéos. Dans la vue détaillée, vous aurez l'image de référence sur le bal de fin d'année. Si vous en avez une, dans cet exemple, j'ai l'image de référence, donc ce sont toutes mes images de référence. Il affichera également la version que vous avez utilisée pour générer cette vidéo. Par exemple, pour celui-ci, j'utilise Kling 1.0. Si je fais défiler certaines vidéos vers le bas, j'utilise Kling 1.5, comme dans cet exemple. Changeons cela. Vous pouvez également cliquer sur A pour sélectionner vidéo ou une image que vous pouvez télécharger. Vous pouvez également supprimer cette vidéo ou cette image. Vous pouvez également le mettre dans vos favoris, ou vous pouvez cliquer à nouveau pour le supprimer de vos favoris. Maintenant, cliquons à nouveau dessus. La vidéo est maintenant générée. Voyons le résultat. Et il est totalement différent du concepteur Microsoft, comme je l'ai dit plus tôt. Voici donc comment vous pouvez générer un clip en utilisant une invite de conversion de texte en vidéo à l'aide d'ing AI. Dans la prochaine conférence, nous verrons quelle est la différence entre le mode standard et le mode professionnel. 10. Générer du texte impressionnant en vidéo: Reviens. Copions maintenant cette invite. J'ai utilisé Microsoft Designer pour améliorer mon invite, et j'ai obtenu ces résultats. Passons maintenant au King AI et collons cette invite. Maintenant, pour cette vidéo, sélectionnons le mode en mode standard, et je ne veux modifier aucun paramètre Et maintenant, cliquons sur le bouton Générer. Pendant la génération de cette vidéo, nous pouvons sélectionner le mode professionnel. D'ailleurs, si vous utilisez le compte premium, l'utilisation du mode professionnel vous coûtera 35 crédits. Nous pouvons maintenant générer ce bal de fin d'année, les vidéos sont donc générées. Il s'agit donc du mode vidéo standard. Ça a l'air plutôt bien. Et il s'agit d'un mode professionnel. Comme tu peux le voir, mec, il y a une énorme différence. Il n'y a aucune violation du cadre. Il n'y a rien de mal dans cette vidéo. On dirait une vraie vidéo de la vie réelle. Maintenant, changeons le clignotant de 1,0 à 1,5. Désormais, lorsque vous sélectionnez 1,5, le moment de la caméra disparaît. Et nous ne pouvons pas passer du mode professionnel au mode standard. Alors maintenant, générons. Il y a maintenant une énorme différence entre le mode professionnel et le mode standard. Le mode professionnel restera cohérent et générera votre vidéo. Il n'y a rien de mal. Il n'y a aucune violation de cadre dans ce clip. Mais le mode standard génère simplement votre clip, peu importe ce que vous demandez, et il restera incohérent. Comme vous pouvez le constater, les gars, il y a quelque chose qui enfreint le cadre au premier plan, et il y a aussi quelque chose d' étrange qui apparaît dans la montagne, des points ou des anneaux Donc, si vous souhaitez générer des résultats en haute définition, utilisez un mode professionnel, mais vous devez passer à la version pro. Au fait, si vous revisitez vos vidéos générées et que vous souhaitez voir le mode que j'utilise et paramètres que j'utilise pour générer ce clip, vous pouvez également le visionner Par exemple, si je sélectionne cette vidéo. Comme vous pouvez le voir, les gars, j'ai changé le mode en mode standard. Mais si je sélectionne cette vidéo, elle passe automatiquement en mode profession, car c' est le mode que j'ai sélectionné lorsque j'ai généré cette vidéo. Non seulement cela, si vous sélectionnez une commande de caméra, elle apparaîtra ici. Si vous modifiez le rapport hauteur/largeur, la longueur, etc., cela apparaîtra sur le côté gauche Maintenant que la vidéo est régénérée, voici le résultat J'aime bien celui-ci parce qu'il génère ce que j'ai demandé. Pour le mode professionnel, je crois que j'aime bien celui-ci, mais la nouvelle version est plus belle et plus belle que les précédentes. Maintenant, si je régénère également cette vidéo, nous obtiendrons un résultat différent Alors pourquoi ne pas le faire ? Maintenant, si vous n'obtenez pas le résultat souhaité, régénérez votre résultat Ainsi, dans cet exemple, nous obtenons un résultat différent et meilleur que le précédent. Cette vidéo que nous avons générée en utilisant un mais cinq n'est pas mal. Mais la nouvelle vidéo est plus belle que la précédente. Nous avons maintenant le résultat vidéo régénéré en utilisant le mode 1.0 Perfection. Si vous souhaitez générer des vidéos, vous devez essayer la version 1.0 en mode professionnel et la version 1.5 en mode perf Comme vous obtiendrez des résultats différents, vous pouvez choisir la vidéo que vous souhaitez utiliser dans vos projets. Je peux utiliser toutes ces vidéos sauf le tableau standard car le mode standard n' est pas utile. Vous pouvez l'utiliser dans vos vidéos YouTube, mais cela n'est pas utile car nous avons des vidéos incohérentes, alors que le mode Pfession 1.5 est un bien meilleur moyen de générer des vidéos 11. Créativité et pertinence: Bon retour. Je vais maintenant vous montrer quelle est la différence entre créativité et pertinence. Donc, pour cet exemple, j'utilise cette invite et je génère ces quatre résultats. Ensuite, j'utilise cette image comme référence. Je génère ensuite ces quatre résultats. Maintenant, cliquons ici pour donner vie à cette image. Fermons cet onglet. Maintenant, si nous restons ici au centre, cela générera simplement une vidéo normale, traire, de verser ce chocolat Passons à la créativité et générons. Encore une fois, je vais changer mon curseur vers la droite en fonction de la pertinence Et maintenant, cliquons sur ce bouton Gnute. Les résultats sont maintenant générés. Nous avons ici le résultat de la créativité. Et voici le résultat de pertinence. Donc, comme vous pouvez le constater, dans la créativité, les gars, il s'agit simplement d'ajouter quelque chose en soi. Alors que pour ce qui est de la pertinence, il suffit de s'en tenir au sujet et de générer ce que nous lui demandons de générer. Et si nous ne modifiions tout simplement pas le curseur en fonction de l' extrême pertinence ou de l'extrême créativité ? Faisons passer le curseur à environ 0,35 de créativité. Et cette fois, je vais sélectionner le mode standard, et maintenant générons ce clip. Passons maintenant au curseur à environ sept points de pertinence et générons le clip Maintenant, changeons le ling 1.0 en 1.5. Passons maintenant au curseur « créativité ». Et encore une fois, changez le curseur en fonction de la pertinence et maintenant générons Nous sommes donc en train de générer les quatre vidéos en même temps. Les résultats sont donc maintenant générés. Donc, si nous changeons simplement la diapositive un peu vers la gauche pour laisser libre cours à la créativité, nous obtenons le résultat. Et si on change un peu la diapositive sur le côté droit en fonction de la pertinence, on obtient ce résultat. Maintenant, je sais que ces deux résultats semblent similaires, mais il y a une énorme différence. Donc, pour ce qui est de la pertinence, tenez-vous-en au sujet. Il s'agit de rassembler le lait de ce côté, où, grâce à la créativité, comme vous pouvez le constater, les gars, le lait se répand sur où, grâce à la créativité, comme vous pouvez le constater, les gars, cette portion, pas simplement sur ce côté. En ce qui concerne la question, comme vous pouvez le constater, les gars, le lait est maintenant récolté de ce côté. Passons maintenant au résultat à l' extrême créativité et à la pertinence de 1.5. C'est l'extrême créativité, 1.5. Les résultats ne sont pas mauvais. Voyons maintenant le résultat du dilemme. Maintenant, si nous passons la diapositive à 0,3 pour que la créativité soit de 0,3, je pense que nous obtiendrons un meilleur résultat que celui-ci. Alors maintenant, générons le clip. Pendant la génération de la vidéo, prenons un autre exemple. Donc, dans cet exemple, j'utilise cette invite. J'utilise la version 1.5 et je change mon curseur pour une créativité extrême. Nous avons donc ce résultat. Et dans l'exemple suivant, je change mon curseur pour qu'il soit extrêmement pertinent en utilisant 1.5, et nous avons obtenu le résultat Et si nous ne changeons pas du tout le curseur, nous avons ce résultat Et dans cet exemple, j'utilise simplement une image. Sans changer le curseur, nous avons obtenu ce résultat Maintenant, les résultats sont générés. Si vous faites preuve d'un peu de créativité, vous obtiendrez des résultats intéressants. Et j'utilise le mode standard pour celui-ci, pas le mode professionnel. Et j'utilise la dernière version 1.5. La créativité est réglée sur 0,3, et c'est le pire résultat que nous ayons jamais obtenu avec cette image. Donc, mes derniers mots, n'utilisez pas ce curseur au-dessus de 0,65 et en dessous jusqu'à Si vous souhaitez générer quelque chose d'intéressant, n' appuyez pas sur ce curseur à l'extrême gauche ou à l'extrême droite Et c'est là toute la différence entre créativité et pertinence. 12. Mouvement de la caméra par IA: Bon retour. Maintenant, allez dans Microsoft Designer, et je veux créer une publicité pour le chocolat. Je vais donc écrire une publicité sur le chocolat dans un hôtel. Nous pouvons maintenant améliorer l'invite. Je pense que cette invite est bonne. Copions cette invite. Accédez à Kling AI, et nous pouvons coller cette invite. Maintenant, si nous faisons défiler la page vers le bas, vous pouvez voir le guide indiquant que le moment de la caméra disparaît. Donc, pour utiliser le moment de la caméra, nous devons remplacer le Kling 1.5 par le Kling 1.0. Nous avons maintenant ce contrôle du moment par la caméra. Si nous cliquons ici, vous pouvez voir que nous avons différents types de moments devant la caméra. Si nous faisons défiler la page vers le bas, nous avons également un master shot. Vous pouvez sélectionner cette option et vous obtiendrez différents moments de caméra. Je vais maintenant expliquer chaque mouvement de caméra. Donc, tout d'abord, nous avons l'horizontale. Maintenant, nous pouvons changer le curseur et nous obtiendrons une position horizontale différente Si je change cela du côté gauche, j'obtiens un moment horizontal du centre vers le côté gauche, et si je le change du côté droit, nous aurons un moment de caméra du centre vers le côté droit. Au lieu de vous expliquer, je vais vous montrer. Donc, tout d'abord, sélectionnons l'horizontale et changeons-la sur le côté gauche. Dans cette invite, nous avons donc une publicité pour le chocolat, et dans la publicité, l'appareil photo changera la position position horizontale du centre vers le côté gauche à l'horizontale. Maintenant, sélectionnons 1.0, changeons le moteur professionnel et générons le clip. Maintenant que la vidéo est générée, voici le résultat. Comme vous pouvez le voir, les gars, dans cette vidéo, la caméra change de position sur le côté horizontal gauche. Que nous avons défini. Maintenant, nous pouvons changer le moment de la caméra très facilement. Vous devez simplement modifier le curseur à l' endroit où vous souhaitez régler le moment de votre caméra Essayons donc le moment de zoom arrière avec la caméra. Maintenant, j'ai généré différents moments de caméra. Voici donc le Zoom in extreme Zoom in camera moment. Et voici le plan 3.4. Il s'agit d'une inclinaison de cinq et ce rôle extrême de moins dix. Comme vous le remarquez, les gars, les vidéos que nous avons générées à l'aide ces moments de caméra sont incohérentes. Tous les clips sont donc incohérents. Il se passe quelque chose dans la vidéo en arrière-plan, au premier plan pendant que vous utilisez la caméra à certains moments Il existe un moment de caméra subtil que vous pouvez utiliser et vous éviterez ainsi cette infraction. Mais si vous utilisez des moments de caméra extrêmes, comme ceux que nous utilisons dans Zoomin , et si vous utilisez des moments extrêmes de moins dix à l'horizontale, vous risquez d'être victime d'une infraction extrême Réinitialisons maintenant le moment de la caméra. Générons la vidéo simple. Je vais maintenant copier cette invite. Voici les résultats de cette invite. Passons maintenant à la vidéo. Collons cette invite. Tout d'abord, générons sans aucun moment de caméra. Donc, sans aucun moment devant la caméra, voici le résultat. Et comme tu peux le voir, mec, la vidéo est cohérente. n'y a aucune bizarrerie dans la vidéo, et il s'agit d'une vidéo à trois personnages en D sans aucun moment devant la caméra Mais comme vous pouvez le voir, les résultats sont assez étonnants. Donc, pour cette vidéo, nous avons la même invite nous utilisons en trois caractères D, et j'utilise la prise de vue principale, je me déplace vers la gauche et je zoome. Et voici le résultat. Comme vous pouvez le voir, le résultat est incohérent. Il y a une certaine bizarrerie dans le cliché. Nous avons un autre exemple, master shot, move forward et zoom up. n'y a pas beaucoup de détails dans la vidéo, c'est pourquoi nous avons ce résultat fluide. Et nous avons un autre exemple de prise de vue principale, déplacement vers la droite et de zoom avant. Encore une fois, incohérence dans la vidéo. Je ne pense donc pas qu'à l'heure actuelle, nous puissions générer des résultats cohérents en utilisant les moments de la caméra. Si vous souhaitez expérimenter avec le moment de la caméra, vous pouvez également le faire. Avec la version gratuite, vous pouvez simplement sélectionner votre mode standard et utiliser n'importe quel moment de la caméra. Et je ne pense pas que vous perdrez un mérite supplémentaire en utilisant le moment de la caméra. Mais si vous souhaitez obtenir un résultat cohérent, je vous recommande de ne pas utiliser de moment de caméra, car pour le moment , le moment de la caméra n'est pas utilisable. 13. Invite négative: Bon retour. Maintenant, dans cet outil, nous avons une autre option étonnante appelée invite négative. Donc, si vous ne voulez rien voir dans votre vidéo, tapez simplement ce mot, et elle sera générée sans ce que vous tapez ici. Donc, par exemple, dans cette vidéo, comme vous pouvez le voir, les gars, nous avons cette étrange distorsion. Dans cet exemple, je saisis une violation et un flou de mouvement que je ne veux pas voir dans ma vidéo, et voici le résultat Comme tu peux le voir, mon gars, il n'y a aucune distorsion dans notre vidéo. Nous avons un autre exemple où je tape simplement infraction. Nous avons donc cette transition en douceur entre deux cadres. Alors que si je diffuse cette vidéo, nous avons une étrange infraction. Comme celui-ci. Dans cet exemple également, je tape simplement infraction et nous obtenons un résultat de transition fluide. D'ailleurs, si vous utilisez le mode standard, vous pouvez également obtenir des résultats étonnants. Comme celui-ci, j'utilise mon mode standard et je sélectionne ce master shot. Et je ne fais que taper « défiguration », motion flou Et voici le résultat. Il y a une petite infraction, mais pas beaucoup. Nous avons ce résultat également, et nous avons également celui-ci. Nous en avons un autre. Pour celui-ci, j'utilise le mode standard, et nous avons obtenu ce résultat. Comme vous pouvez le voir, les gars, le personnage ferme les yeux, et il y a une distorsion dans le court métrage Donc, pour éviter cette distorsion, je tape simplement distorsion dans le message négatif. Et comme vous pouvez le constater, les gars, nous avons maintenant un résultat fluide. Et d'ailleurs, j'utilise le mode standard, pas le mode professionnel. Comme vous pouvez le voir, les dix crédits apparaissent dans le générateur. Donc, en tapant un message négatif, tout ce que vous ne voulez pas voir dans votre vidéo, vous obtiendrez un résultat époustouflant, même si vous utilisez le mode standard. Et après avoir régénéré cela avec ce moment devant la caméra, avec ces mots clés négatifs que je ne veux pas voir dans ma vidéo, j'ai obtenu ce résultat, et il n'y a pratiquement aucune violation dans la vidéo Voici donc comment vous pouvez générer un résultat époustouflant tapant une invite négative à l'aide de Ling AI. 14. Générer une image en vidéo IA: Bon retour. La prochaine façon de générer des vidéos consiste donc à utiliser des images. Passez de l'image à la vidéo. Nous pouvons télécharger l' image ou accéder aux images AI, sélectionner n'importe quelle image. Vous pouvez choisir n'importe quelle image, puis cliquer ici pour donner vie. Vous pouvez générer une vidéo à partir de votre image. Nous l'avons donc déjà fait, allons donc le supprimer. Accédez maintenant au Microsoft Designer. Vous pouvez taper n'importe quelle invite votre choix, améliorer votre invite. Vous pouvez sélectionner votre taille , la taille de votre image. Vous pouvez sélectionner n'importe quelle taille. Et maintenant, cliquons sur ce bouton Gen wait. Maintenant, nous avons le résultat. Vous pouvez sélectionner n'importe quelle image de votre choix. Donc j'aime bien celui-ci. Vous pouvez cliquer ici pour télécharger l'image de votre choix. Revenez maintenant à Cling Eye, passez de l'image à la vidéo, cliquez ici, sélectionnez l'image que nous venons de télécharger. Cliquez sur ce bouton pour l'ouvrir. Vous pouvez également glisser-déposer votre image. Maintenant, nous pouvons également glisser-déposer cette image. Vous pouvez saisir n'importe quelle invite facultative. Il existe également d'autres paramètres. Et pour cet exemple, sélectionnons le mode standard. Nous pouvons maintenant cliquer pour générer cette vidéo. La vidéo est donc maintenant générée. Voici le résultat. Vous pouvez donner vie à n'importe quelle image. Vous pouvez télécharger n'importe quelle image. Ça n'a pas d'importance. Vous pouvez également télécharger vous-même. Maintenant, dans cet exemple, je télécharge mon image, et voici le résultat. Non seulement cela, vous pouvez également donner vie à votre ancienne photo. Vous pouvez également télécharger votre photo manipulée. Comme vous pouvez le voir, les gars, je fais moi-même appel à Photoshop sur cette photo, et je lui donne vie également. Il s'agit également d'un autre exemple. Nous avons également cet exemple. Et nous avons également cet exemple. Vous pouvez donc voir, les gars, c'est incroyable de voir comment vous pouvez donner vie à votre photo d'enfance. Non seulement cela, vous pouvez également lui dire de faire ce que vous voulez avec votre photo. Donc, dans cet exemple, je tape un couteau pour couper l' orange en deux morceaux. Et voici le résultat. Le couteau est en train de couper l'orange. Et dans cet exemple, je lui demande de réaliser cette vidéo dans un style cyberpunk Et c'est ce que j'ai obtenu. Plutôt incroyable, non ? Voici donc comment vous pouvez générer vos vidéos à partir de l'image. 15. Cadre de début et de fin: Bon retour. Donc, dans Killing A, nous avons une autre fonctionnalité étonnante appelée add ndframe. Si nous l'activons, vous pouvez voir que nous avons deux fenêtres pour télécharger les images. Il s'agit du cadre de départ, et voici le cadre de fin. Accédez maintenant au Microsoft Designer. Vous pouvez saisir cette invite. Vous pouvez générer ces images. Pour cet exemple, je vais télécharger cette image. Vous devez maintenant sélectionner votre image finale en fonction de la perspective de votre première image afin d' obtenir des résultats époustouflants. Je pense donc que l'image numéro quatre est proche de l'image orange. Alors téléchargeons-le également. Nous pouvons maintenant cliquer ici pour télécharger le cadre de départ. Maintenant, cliquons ici pour télécharger le dernier cadre. Et pour cet exemple, je vais sélectionner ce mode dix, et maintenant cliquons sur ce bouton dix Wt. Nous avons donc le résultat. Comme vous pouvez le voir, les gars, l'orange est train de se transformer en Apple. Maintenant, j' étends également automatiquement cette vidéo, et maintenant nous avons cette vidéo générée. Ensuite, je prolonge cette vidéo de cinq secondes en écrasant rapidement des pommes au marteau, et maintenant nous avons obtenu le résultat Vous pouvez également lui demander de faire n'importe quoi. Dans cet exemple, je tape Apple transform camera stay static. Ainsi, la caméra ne bougera pas, elle restera en position. Il y a deux points de vue différents. C'est pourquoi nous avons obtenu ce résultat étrange. Mais si vous avez trouvé la bonne perspective et que la position de la table est la même, vous obtiendrez une superbe vidéo de transformation. Dans cet exemple, je tape simplement Apple transform. Avant d'avoir l'orange au cadre de départ, nous avons maintenant l'Apple au cadre de départ et l' orange au cadre de fin. Vous pouvez faire différents types de choses folles en utilisant la fonction de fin de cadre de cet outil. Permettez-moi de vous donner quelques exemples. Nous avons donc cet exemple. C'est mon point de départ, et c'est mon point final. J'ai tapé le pro car crash à travers le mur et je me suis coincé entre deux murs Chaîne mon curseur à 0,8 de pertinence et utilise le mode standard pour cette génération Dans cet exemple, j'utilise ce cadre et je m'ajoute au venin, puis je l'utilise à la fin du cadre Comme vous pouvez le voir, les gars, et je tape « homme qui devient venin ». Je n'ai modifié aucun réglage, également utilisé le mode standard pour cette génération et j'ai obtenu ce résultat. Après avoir généré cette vidéo, j'améliore l' éclairage de mon visage, j' ajoute le visage venimeux dans l'image de départ et j'ajoute mon visage dans l'image de fin, et je tape un symbiote qui révèle un homme Utilisez également le mode Dan pour celui-ci , et j'ai obtenu un résultat fou. Après cela, je régénère à nouveau ma vidéo, et j'ai obtenu ce résultat fou Vous obtiendrez donc un résultat différent si vous vous régénérez J'utilise également mes deux photos au même endroit, mais avec des angles différents j'utilise également le mode standard pour cette génération, et c'est le résultat du mode professionnel. Comme vous pouvez le voir, les gars, mon visage est maintenant constant. Nous avons maintenant cet exemple. Si vous avez la même image avec la même perspective, vous obtiendrez ce genre de résultat. Comme vous pouvez le voir, je tape camera stay static et nous obtenons ce résultat fou. Désormais, si vous utilisez un mode professionnel avec la fonction d'ajout d'une fin de cadre, vous obtiendrez un résultat cohérent. Il s'agit donc du mode vidéo standard. Et comme vous pouvez le constater, les gars, mon visage n'est pas bien visible, et c'est le résultat avec un mode professionnel. La vidéo restera cohérente. Nous avons également ces exemples. Et voici un autre exemple de fonctionnalité de fin d'image de Kling AI associée à un mode professionnel. Et nous avons un autre exemple avec un mode professionnel avec ces deux images. Comme vous pouvez le voir, les résultats semblent réalistes, et nous avons également cet exemple. Avec le changement de cadre, vous obtiendrez cet effet. Maintenant, vous n'avez pas besoin d'utiliser la première et la dernière image dans cette combinaison où nous avons un angle blanc et un angle rapproché, car vous obtiendrez quelque chose comme ça. Vous obtiendrez un effet de frange extrême comme celui-ci. Et nous avons également cet exemple. Et comme vous pouvez le voir, nous avons des lasers assez étonnants. Même les personnes en arrière-plan se déplacent très correctement. Vous pouvez donc créer n'importe quoi avec ce commutateur. Vous devez simplement ajouter un cadre en étoile et un cadre final, et cela créera quelque chose entre ces cadres. 16. Se transformer en Iron Man: Bon retour. Maintenant, même si vous utilisez la version gratuite de Killing AI avec le mode standard, vous pouvez créer quelque chose comme ça. Ainsi, sans aucune compétence particulière, vous pouvez également créer des effets visuels époustouflants. Et si vous utilisez un mode professionnel, vous pourriez également obtenir des résultats époustouflants. Je vais maintenant vous montrer comment nous pouvons créer quelque chose comme ça. Tout d'abord, rendez-vous sur le site photob.com. Il s'agit d'une alternative gratuite à Photoshop. Nous avons deux captures d'écran d'Ironman. Tout d'abord, décochez Autoselect, puis cochez Transform Control En activant le contrôle de transformation, vous obtiendrez le contrôle de transformation. Nous pouvons appuyer sur Ctrl C pour copier cette couche. Accédez à l'Iron Man, appuyez sur Control V pour vous coller. Nous pouvons maintenant convertir cette couche en objet intelligent. Maintenant, appuyez sur Ctrl et maintenez-les enfoncés. Utilisez le défilement de la souris pour effectuer un zoom arrière. Maintenant, nous pouvons redimensionner cette personne ou le sujet, appuyer sur Inter, et nous pouvons nouveau appuyer sur Ctrl plus ou maintenir la touche enfoncée, utiliser le défilement pour zoomer Maintenant, je vais réduire mon opacité et maintenant nous pouvons aligner la phase sur la phase Ironman Nous pouvons maintenant modifier l' opacité à environ 100 %. Cliquez ici Et maintenant, alignons cela ici. Je vais maintenant activer le masque matriciel Cliquez ici, sélectionnez d' abord votre couche, puis cliquez ici. Maintenant, nous pouvons cliquer dessus et le maintenir et sélectionner le bogue de peinture Nous pouvons également échanger la couleur, changer la couleur en noir, et maintenant cliquons sur sélectionnez le masque et cliquez. Maintenant, nous pouvons sélectionner le pinceau, appuyer sur le bouton droit de la souris. Nous pouvons changer la taille du pinceau ici et maintenant nous pouvons échanger la couleur. Alors, cliquez ici. Nous avons maintenant la couleur blanche. Nous pouvons donc à nouveau utiliser Control et t, maintenez-les enfoncés, utilisez le défilement pour zoomer. Sélectionnez le masque matriciel et nous pouvons maintenant peindre. Appuyez sur Kontozi pour annuler. Cliquez avec le bouton droit de la souris, et nous pouvons réduire la taille du pinceau. Et maintenant je peux me brosser les dents ici. Vous devez donc vous brosser les dents avec soin. À l'intérieur du masque I did man. Maintenant, c'est terminé. Nous pouvons sélectionner l'outil de déplacement, appuyer sur la commande ou sur Zoom arrière. Maintenant, nous avons presque terminé. Maintenant, je vais cliquer ici et ajouter ce calque de réglage, cliquer avec le bouton droit sur le calque de réglage et créer un masque de découpage Cela n'affectera donc que la phase, pas le tout. abord, je vais augmenter mon contraste et diminuer ma luminosité. Nous pouvons l'activer et le désactiver. Masquons cette couche pour obtenir la bonne couleur. Baissons un peu la luminosité. Je vais également ajouter une couleur sélective. Maintenant, si vous ne créez pas ce masque d'éclipse, si nous sélectionnons la couleur neutre, cela affectera l'ensemble de l'image Comme vous pouvez le voir, les gars, cela affecte maintenant l'ensemble de l'image Et si je le remplace par un masque de découpage, cela n'affectera que le calque qui se trouve en dessous de ce calque Nous pouvons maintenant réinitialiser cette couche et faire correspondre la couleur à celle de l'Iron Man. Maintenant, je pense que c'est terminé. Mettons-le à environ. Maintenant, c'est terminé. Maintenant, la dernière chose à faire est de cliquer avec le bouton droit de la souris sur le visage de la personne, accéder à l'option Fusion, mais pas d'ombre intérieure Passez en mode fusion, changez le mode de fusion en mode normal, cliquez ici et changez la couleur en noir. Nous pouvons maintenant augmenter la taille, augmenter l'opacité. Abaissons un peu le passé. Maintenant, c'est terminé. Maintenant, allez à cette capture d'écran, cliquez ici, appuyez sur Ctrl C pour la copier et appuyez sur Ctrl V. Maintenant, nous pouvons placer cette capture d'écran sous toutes les couches. Nous pouvons maintenant sélectionner toute cette couche, sélectionner cette couche, appuyer sur Shift et sélectionner la première couche. Il sélectionnera donc toutes les couches. Cliquez avec le bouton droit de la souris et convertissez-le en objet intelligent. Sélectionnez-le, cliquez avec le bouton droit de la souris et convertissez-le également en objet intelligent. Maintenant, nous pouvons cliquer ici et nous pouvons également appuyer sur Ctrl et sélectionner celui-ci. Cliquez avec le bouton droit de la souris, convertissez-le en objet intelligent. Maintenant, nous pouvons passer au filtre, au bruit, ajouter du bruit. Je vais donc ajouter 5 % de bruit. Peut-être changer cela à 3 %. Maintenant, cliquez à nouveau ici sur le filtre, accédez à la netteté et sélectionnez la netteté intelligente Cliquez sur OK. Et maintenant, c'est terminé. Vous pouvez également ajuster les couleurs de vos photos si vous le souhaitez. Je vais donc simplement ajouter quelque chose de vert et ajouter quelque chose comme Merchant. Et si nous l'activons et le désactivons, vous pouvez voir, les gars, que nous avons un étalonnage des couleurs qui nous aidera à faire correspondre le visage à la scène Nous pouvons maintenant cliquer ici sur le fichier, accéder à l'export et enregistrer ce fichier au format JPEC Nous pouvons changer la qualité à 100% et maintenant cliquer sur le bouton Enregistrer. Sélectionnez maintenant cette couche, double-cliquez. Nous pouvons désactiver cette couche. Maintenant que nous avons cette couche, nous pouvons appuyer sur la touche Ctrl pour l'enregistrer et nous avons maintenant cette version de mise à jour. Nous pouvons maintenant accéder au fichier et l'enregistrer au format JPA. Donc, la raison pour laquelle j'ajoute cette capture d'écran en dessous cette capture d'écran est d'en faire un objet intelligent en une seule couche. Nous pouvons donc attribuer un grade de couleur et ajouter un effet au-dessus de cette couche. Cela affectera toutes les couches situées sous les couches principales. Et maintenant, allez sur le lien AI, nous pouvons supprimer ces images, et nous pouvons télécharger les nouvelles images. Maintenant, vous pouvez également utiliser le mode standard si vous le souhaitez et nous pouvons cliquer sur le bouton Créer. Les vidéos sont maintenant générées. Maintenant, si je prends ceci comme première image et comme dernière image, avec le mode standard, voici le résultat. Et si nous définissons cette première image et que nous la définissons comme dernière image, nous obtenons également ce résultat avec le mode standard. J'ai donc lu et lu cette vidéo en mode professionnel et nous avons obtenu ce résultat incroyable. Cela semble plus réaliste que les autres vidéos générées. En utilisant cette technique, je me suis également créé comme un venin Maintenant, avec l'aide de l'IA, vous pouvez vous transformer en n'importe quel super héros sans aucune compétence particulière 17. Pinceau à mouvement: Bon retour. Nous parlons maintenant du motion brush, et cette fonctionnalité change la donne pour le secteur de la génération vidéo par IA. Tout d'abord, nous devons télécharger notre image. Maintenant, une fois que vous avez téléchargé votre image, vous devez passer de la version 1.5 à version 1.0 car cette fonctionnalité n' est pas disponible dans la version 1.5 pour le moment. Il faut maintenant cliquer ici. Et comme vous pouvez le voir, les gars, nous avons ce guide simple. Alors laissez-moi vous montrer comment cela fonctionne. Tout d'abord, nous avons ce pinceau. Nous pouvons dessiner quelque chose, nous pouvons dessiner tout ce que vous voulez déplacer. Et nous avons une gomme Si vous voulez effacer votre pinceau, par exemple, si je dessine cette pierre, et si je veux effacer mon pinceau, je dois sélectionner la gomme, puis je dois retirer la pierre Je peux également augmenter la taille du pinceau. Nous avons maintenant la segmentation automatique. Donc en ce moment, comme vous pouvez le voir, les gars, je suis juste en train de me brosser les dents Mais si je réinitialise, vous pouvez également réinitialiser la zone de votre pinceau. Je peux me sélectionner automatiquement en activant la segmentation automatique. Maintenant, je vais également sélectionner mes cheveux, mes lunettes , mes pantalons et mes chaussures. Maintenant, je peux décocher cette case et je peux brosser les pièces manquantes. Nous allons donc obtenir le résultat précis. Maintenant, c'est terminé. Donc, sur le côté droit, nous avons la piste, et c'est pour cette zone, la zone verte. instant, je vais sélectionner ma piste, et nous devons tracer la direction dans laquelle je veux me déplacer. Je veux donc m' orienter dans cette direction, non ? Supprimons ce pinceau et dessinons de ce côté. Maintenant, vous pouvez également supprimer votre chemin, votre trace également. Vous devez cliquer ici sur la croix pour supprimer votre chemin. Nous allons maintenant avoir différents domaines. Vous pouvez sélectionner plusieurs zones à déplacer, mais pour le moment je n'ai que moi-même sur cette photo, donc cela suffit. Maintenant, à la fin, nous avons cette zone statique d'ajout. La zone statique ne bougera donc pas. Pour cela, je dois sélectionner tout ce que je ne veux pas déplacer sur ma photo. Je pense que c'est suffisant. Maintenant, ici, comme vous pouvez le voir, si vous sélectionnez quelque chose que vous voulez déplacer, mais que vous le sélectionnez accidentellement en tant que zone statique, vous pouvez également l'annuler. Comme vous pouvez le constater, cette zone est désormais claire. Vous pouvez également le refaire. Ou vous pouvez tout réinitialiser si vous le souhaitez. Maintenant, c'est terminé. Nous pouvons confirmer et c'est terminé. Au fait, je vais rouvrir le motion brush à nouveau. Par exemple, si vous ne dessinez aucun glissement, si vous ne tracez aucun chemin et que vous cliquez sur le bouton de confirmation, nous avons ajouté ce message, non dessiné, non jumelé. Les pinceaux animés n'auront aucun effet sur l'envoi. Vous soumettez donc si vous le confirmez, si vous soumettez cette zone de pinceau, cela n'affectera rien car vous n'avez pas tracé la direction. Donc, pour déplacer quelque chose dans votre image, vous devez dessiner cet objet et vous devez tracer un chemin. Si vous n'avez tracé aucun chemin, cela ne déplacera pas cet objet , cette personne ou cette chose. Alors maintenant, confirmons. Et maintenant, utilisons le mode standard pour cela et nous pouvons générer cette vidéo. Et voici le résultat. Comme vous pouvez le voir, les gars, si nous utilisons le mode professionnel, nous obtiendrons un résultat constant. Pour le moment, ce n'est pas constant, mais ça a l'air bien. Désormais, nous n'avons plus besoin de revenir en arrière et de cliquer sur la vidéo pour générer des vidéos à partir de l'image. Nous pouvons également le supprimer. Ne vous inquiétez pas, cela ne supprimera pas votre vidéo. Et maintenant, pour cet exemple, je vais cliquer sur le pinceau de mouvement. Laissez-le donc d'abord analyser votre image, et nous pouvons maintenant activer la segmentation. Je peux choisir moi-même. Décochons. Maintenant, sélectionnons la piste et dessinons un chemin ici. Je vais donc maintenant sélectionner la zone statique, activer la segmentation automatique. Et c'est terminé. Sélectionnons également cette personne. Maintenant, cliquez sur Confirmer et générez. Nous avons donc maintenant cette vidéo. Parfois, cela génère quelque chose que vous ne vous attendiez pas à ce qu'il génère. Ne vous inquiétez pas, je pense que nous pouvons régler ce problème. Ainsi, pendant la génération de cette vidéo, nous pouvons supprimer l'image. Nous pouvons télécharger une autre image. Et dans cet exemple, nous allons dessiner plusieurs objets afin de les déplacer. Maintenant que l'image est téléchargée, cliquez sur le mouvement de dessin. Laissez-le analyser l'image. Nous pouvons activer la segmentation automatique, sélectionner l'idée numéro un. Nous pouvons dessiner ce gout, sélectionner la zone numéro deux, sélectionner celle-ci. Maintenant, je vais sélectionner la piste 2, et nous allons la déplacer vers cette position, sélectionner la piste 1 et la déplacer vers cette position. Nous devons maintenant dessiner l' arrière-plan sous forme de zone statique, afin que l'arrière-plan ne bouge pas. Maintenant, c'est terminé. Nous pouvons cliquer sur le bouton Confirmer, et nous allons générer ce clip. J'ai un exemple pour vous, et je voudrais vous expliquer quelque chose. Laissez-le d'abord analyser l'image. Prenons par exemple la segmentation automatique. Si vous cliquez sur l'arrière-plan, si vous dessinez l'arrière-plan comme zone de mouvement, zone de moment, trajectoire du moment, si vous sélectionnez la zone statique, vous ne pourrez pas dessiner l'arrière-plan comme zone statique car nous dessinons l'arrière-plan comme trajectoire de mouvement. Nous pouvons donc réinitialiser. Réinitialisons-le à nouveau. Et par exemple, si vous dessinez votre personnage sous la forme d'un chemin statique, alors si, par exemple, dans la zone numéro un je dois dessiner mon visage, alors je ne pourrai pas dessiner mon visage car cette zone est désormais définie sur la zone statique. Veillez donc à bien vous brosser les dents. Et dans ce cas, par exemple, si je sélectionne cette partie, cette partie du personnage, tout l' arrière-plan sera également sélectionné. Pour pouvoir dessiner cette zone, vous devez sélectionner cette zone manuellement. Et si nous cochons la segmentation automatique, si nous définissons l' arrière-plan comme statique, il restera le chemin du moment. Il ne considérera pas cela comme une zone statique. Réinitialisons donc tout. Et dans ce clip, je veux déplacer une partie de mon personnage, pas un personnage entier. Donc, ce que je vais faire, c'est sélectionner le bras de ce personnage. Dessinons ce bras sur son visage, sélectionnons la zone numéro deux, et je vais dessiner le bras de ce personnage. Dessinons-le également Décochons Dessinons également ce bras Maintenant, je vais bloquer ça et c'est terminé. Laissons d' abord l'arrière-plan décocher cette case Dessinons ceci. Dessinons uniquement son visage. Et maintenant je pense que nous tournons, nous pouvons sélectionner la zone statique, cliquer sur le bouton de confirmation et générer ce clip. La vidéo est donc maintenant générée. Voici le résultat. Comme vous pouvez le voir, les gars, l'un se déplace vers cette position, autre se déplace vers cette position lorsque nous avons activé le pinceau de mouvement. Maintenant, dans cet exemple, je trace un chemin qui devrait me faire voler dans cette vidéo, mais au lieu de cela, nous avons obtenu ce résultat. Ce qui n'est pas mal. Et dans l'exemple suivant, je trace une ligne en m'attendant à ce qu'il me fasse asseoir, mais nous avons obtenu le résultat suivant. Maintenant, dans l'exemple suivant, j'ai trouvé une solution à ce problème. Donc, dans cet exemple, je trace ce chemin, et maintenant je suis debout dans la vidéo. Et dans cet exemple, je suis enfin assise. Alors maintenant, je vais vous montrer comment fonctionne Motion Barrage. Donc, si on regarde bien le chemin, comme vous pouvez le voir, les gars, je trace un chemin entre mes jambes. L'IA comprend donc maintenant que je lui demande de m'obliger à m'asseoir. Maintenant, je vais parler du problème avec l' autre génération. Donc, si vous regardez bien, je dessine ma flèche sur la zone de dessin C'est pourquoi nous avons obtenu ce résultat car l'IA est maintenant confuse Alors que, comme vous pouvez le voir, les gars, dans cette vidéo où je suis assise, je dessine sur la zone statique. Et maintenant, dans cet exemple, nous avons obtenu le résultat suivant : ce robot ne lève pas la main. Il n'augmente pas son efficacité. Donc, dans l' exemple suivant, ce que j'ai fait, je dessine simplement cette flèche et nous avons obtenu ce résultat. Vous devez donc dessiner un mouvement. Alors maintenant, dans cet exemple, nous avons obtenu ce résultat. Et j'ai légèrement changé la flèche. Comme vous pouvez le voir, les gars, maintenant je change un peu la trajectoire de ma flèche, et nous avons obtenu ce résultat. J'ai également cet exemple. Comme vous pouvez le voir, les gars, si nous ouvrons le pinceau de mouvement, je dessine complètement ce personnage, et je trace un chemin. Je veux que ce personnage passe à cette position. Et pour ce personnage, je ne dessine que les poinçons et la tête de ce personnage, et j'ai défini l' arrière-plan comme statique Si vous regardez bien, ce personnage n' est pas complètement réglé sur cette statique, seuls ses coups de poing et la tête sont maintenant dessinés, pas le personnage entier, et je trace le chemin où je veux le déplacer. Et c'est le résultat de ce dessin. Et voici un autre exemple simple : si nous ouvrons le pinceau de mouvement, je dessine simplement ma voiture et je dessine juste un chemin. Définissez l'arrière-plan comme statique. Nous avons un autre exemple , celui du combat robotisé. Si nous ouvrons le pinceau, je dessine ce personnage, je veux le frapper, et en même temps, je veux que ce personnage se penche un peu en arrière. Et pour ce personnage, je dessine ce poinçon. Je veux que ce personnage percute ce personnage et qu'il se penche un peu en arrière. Et nous avons obtenu ce résultat. Vous pouvez également dessiner plusieurs zones, et vous obtiendrez différents types de résultats. Il s'agit également d'un autre exemple simple. Si nous ouvrons le pinceau de mouvement, je dessine ce caractère de ce côté, dessine le bus et je déplace le bus de ce côté, définis l'arrière-plan comme statique, et maintenant nous obtenons le résultat. Le robot ne bouge pas parce que l'IA pense peut-être que je veux que le bus écrase ce robot. Donc, à l'heure actuelle, l'IA est également sensible. Nous avons également un autre exemple de robot. Si je vous montre le pinceau de mouvement, nous avons ici le pinceau de mouvement. Nous avons maintenant le résultat. Comme vous pouvez le voir, les résultats sont époustouflants. Maintenant, si vous utilisez un mode professionnel, vous obtiendrez un résultat précis. Dans cet exemple, je dessine le bras gauche de ce robot ainsi que le bras gauche de ce robot, et je trace ce chemin. Définissez l'arrière-plan comme statique et cela génère ce résultat. Le résultat est désormais précis. Contrairement au mode standard, avec le même dessin, si je vous montre le même dessin, je génère cette vidéo avec le mode standard, et le personnage bouge également un peu et l' arrière-plan bouge également. Mais en mode professionnel, vous pouvez voir, les gars, qu'il ne s'agit précisément que de déplacer la partie où j'ai dessiné. Donc, avec ce dessin, nous avons obtenu ce résultat avec le mode professionnel. Comme vous pouvez le constater, les gars, tout est désormais cohérent et avec le même dessin. Mais avec le mode standard, nous avons obtenu ce résultat. Vous pouvez désormais également déplacer votre image modifiée. Comme vous pouvez le voir, les gars, je fais des retouches moi-même en studio, et je dessine ce simple pinceau à mouvements. Nous avons obtenu cet effet. Nous avons un autre exemple. Si je vous montre le pinceau de mouvement, c'est le pinceau de mouvement, et c'est le résultat avec le mode professionnel. La vidéo en mode professionnel a l'air bizarre car elle génère ce que je lui demande. Comme vous pouvez le voir, les gars, je lui demande de bouger le flash de bouche et son bras aussi, et c'est fait et ça a l'air bizarre Mais avec le même dessin en mode standard, vous obtiendrez un résultat différent. Et c'est le résultat avec le mode standard. Comme vous pouvez le voir, les gars, ça a fait bouger le bras et le museau clignote également Le pinceau de mouvement est doté d'un mode standard, il est plus réaliste et plus époustouflant que le mode professionnel. Mais les vidéos seront incohérentes si vous optez pour le mode standard. Mais avec le mode professionnel, vous devez être précis avec vos pinceaux car il ne déplacera que la partie où vous brossez la zone. Donc, si vous vous demandez comment j'ai créé les vidéos de punching sur le plateau, voici l'invite et voici le résultat à l'aide du Microsoft Designer Maintenant, dans cet exemple, je ne dessine que le flash du pistolet et nous avons obtenu ce résultat. Laissez-moi vous montrer le motion brush. Comme vous pouvez le voir, les gars, tout n'est pas figé sauf le visage et le corps de cette personne. Ce que je veux dire, c'est que vous devez être précis lorsque vous utilisez le mode professionnel si vous utilisez le pinceau de mouvement, si vous voulez obtenir le bon mouvement. Et voici comment vous pouvez utiliser le pinceau de mouvement. 18. Vidéos de synchronisation des lèvres avec l'IA: Bon retour. Nous avons donc maintenant la dernière fonctionnalité, qui s'appelle Lip Sync. S'il y a un espace dans la vidéo générée par votre clip Ino, vous pouvez synchroniser cette personne avec les lèvres. Il vous suffit de sélectionner votre vidéo. Vous devez cliquer sur la synchronisation labiale. Il va d'abord identifier votre vidéo. Ensuite, nous avons cette interface. Comme vous pouvez le voir, il y a tellement de voix. Vous pouvez sélectionner n'importe lequel. Salut. Tu peux jouer et tu peux jouer. Tu peux écouter cette voix. Vous pouvez sélectionner n'importe quel sexe, comme homme, jeune homme. Salut. Magnifique. Une fois que vous avez sélectionné votre voix, vous pouvez taper tout ce que vous voulez qu'il dise. Une fois que vous avez saisi votre discours, vous pouvez également cliquer ici pour prévisualiser vos mots. Salut, voilà. Je viens du passé. Je m'appelle Alex. Vous pouvez également modifier la vitesse de votre voix. Salut, voilà. Je viens du passé. Remplaçons cela par un X, qui est la vitesse normale. Et maintenant, vous pouvez cliquer sur la synchronisation labiale et cela prendra vos cinq crédits. Maintenant, vous pouvez également télécharger votre fichier audio afin de procéder à la synchronisation labiale. Alors pour l'instant, je vais cliquer ici, Lip Sync et passer au téléchargement. Du dumbing local. Nous pouvons télécharger un fichier. Et comme vous pouvez le voir, les gars, si votre enregistrement dure plus de 5 secondes, vous devez découper votre audio. Salut, voilà. Je m'appelle Faizan et je viens du passé. Salut, le mien. Vous devez donc sélectionner une partie de votre fichier audio car la durée de la vidéo est de cinq secondes Nous devons donc sélectionner le son inférieur à cinq secondes. Je vais maintenant confirmer mon recadrage, et maintenant synchronisons également ce clip avec les lèvres. Peu importe que vous utilisiez génération d'image pour vidéo ou de texte pour vidéo. S'il y a une phase, vous pouvez synchroniser cette vidéo avec les lèvres. Par exemple, je vais sélectionner ce robot, et maintenant cliquons sur la synchronisation labiale. Il s'agit donc d'abord d'identifier s'il existe une phase de synchronisation labiale. Maintenant, s'il ne parvient pas à identifier un rythme dans votre clip, vous obtiendrez cette erreur. Identifions cette vidéo, et maintenant, comme vous pouvez le voir, les gars, nous avons maintenant cette interface. Maintenant, si vous voulez qu'une personne parle très lentement, vous pouvez régler le débit vocal sur 0,8, qui est le taux le plus bas. Et avant de taper quoi que ce soit, vous pouvez prévisualiser cette voix. Marchons de ce côté et je mettrai peut-être mes mains dans ma poche. Comme vous pouvez le voir, les gars, les paroles parlent maintenant très lentement, et si je veux qu'il parle vite, vous devez augmenter le débit vocal Marchons de ce côté. Et peut-être que j'ai mis mes mains dans ma poche. Et il y a une limite de durée ici, sur le côté droit de la voix. Marchons de ce côté. Cette voix dure donc maintenant 4,5 secondes. Alors peut-être devons-nous changer le débit vocal à 0,9. Marchons de ce côté. Nous avons maintenant une voix de 5,3 secondes. Nous pouvons maintenant prévisualiser cette voix. Marchons de ce côté. Maintenant, si vous voulez qu'une personne parle très fort, augmentez simplement le débit vocal. Marchons de ce côté, et peut-être que je mettrai mes mains dans ma poche. Pour ma part, je vais régler mon débit vocal 0,9 et cliquer sur la synchronisation labiale. La vidéo de synchronisation labiale est donc maintenant générée. Voici le résultat. Salut. Je viens du passé. Je m'appelle Alex. Maintenant, comme vous pouvez le voir, les gars, les résultats sont maintenant assez étonnants. Maintenant, si vous avez une vidéo en perspective comme celle-ci, c'est la caméra frontale, mais si vous avez une caméra latérale, la synchronisation labiale est également très étonnante. Salut, je m'appelle Faizan et je viens du passé. Comme vous pouvez le voir, les gars, mon point de vue est en train de changer, mais cela m'a fait bouger la bouche. Je m'appelle Fazan et je viens du passé. Nous avons également cet exemple. Marchons de ce côté et je mettrai peut-être mes mains dans ma poche. Je pense que ma bouche semble bien trop grande qu'elle ne devrait l'être, mais ça va. Ce n'est pas si mal, et c' est la dernière vidéo que nous avons générée avec Lips. Oh, je grossis. Mes poumons, mes poumons. Maintenant, vous pouvez également republier votre vidéo si vous le souhaitez. Il vous suffit de cliquer ici redub pour télécharger votre audio ou vous pouvez utiliser la synthèse vocale pour synchroniser votre clip avec les lèvres Voici comment vous pouvez utiliser la synchronisation labiale pour synchroniser vos vidéos à l'aide de Cling AI. 19. Étendre la génération de vidéos par IA: Bon retour. Maintenant, si vous générez une vidéo, vous pouvez également l'étendre. Donc, dans cet exemple, je vais sélectionner mon hamburger ici. Je vais améliorer ce burger. Maintenant, le hamburger est amélioré. Donnons vie à cela. Je vais maintenant sélectionner le mode professionnel et sélectionner Cling 1.0, car si vous utilisez la version 1.5, vous ne pouvez pas vraiment étendre votre clip. n'y a aucune option. Si vous utilisez la version 1.5, vous ne pouvez pas vraiment étendre votre clip. La vidéo est donc générée. Voici le résultat. Maintenant, si vous regardez de plus près, nous avons une option appelée étendre, et nous avons deux options d'extension. L'un est Auto Extend. L'autre est une extension personnalisée. Maintenant, si vous utilisez la version standard, vous pouvez également l'utiliser. Et il vous faudra dix crédits si vous utilisez le mode standard. Et si vous utilisez le mode professionnel, il vous faudra à nouveau 35 crédits. Étendons donc automatiquement. Maintenant, je vais sélectionner à nouveau ma vidéo générée et cette fois, je vais sélectionner Personnaliser l'extension. Maintenant, je vais taper du rattrapage sur le Burker Maintenant, la vidéo s'étend. Nous avons donc le résultat. Comme vous pouvez le voir, les gars, la vidéo est maintenant étendue à neuf secondes. Et c'est le résultat de l'extension automatique. Nous avons maintenant le dessert pour le client. Et au bout de 5 secondes, comme vous pouvez le voir, les gars, nous avons ce récupérateur qui est versé sur le dessus du hamburger Et juste comme ça, vous pouvez étendre votre clip. Vous pouvez taper ce que vous voulez dans votre vidéo. Maintenant, j'ai également d'autres exemples. Donc, dans ce clip, nous avons cette invite. J'ai généré cette vidéo en utilisant le texte vers la vidéo. Et d'ailleurs, c'est le mode standard, pas le mode professionnel. Et c'est également le mode standard. Et nous pouvons également ajouter la souris à l'historique des extensions. Et comme vous pouvez le voir, les gars, j'ai tapé un lait à la main Nous avons donc ce résultat. Nous n'avons pas de lait, mais vous pouvez réessayer pour obtenir le résultat souhaité. Parfois, cela ne prolonge pas ce que vous lui demandez. Donc dans ce clip, je tape un nuage noir couvrant le ciel, et comme vous pouvez le voir, les gars, il ne se passe rien au bout de 5 secondes. C'est juste une vidéo Zoom in normale. Rien ne se passe dans le ciel. C'est un autre exemple où je tape vu se déplacer vers un parking. Et si je joue cette vidéo, comme vous pouvez le voir, les gars, bout de cinq secondes, nous avons une voiture derrière le personnage. C'est d'ailleurs l'extension automatique. Nous avons juste un clip Zoom arrière normal. Et je tape un vélo futuriste devant l'arrector. Au bout de cinq secondes, vous pouvez voir que nous avons un vélo. Il s'agit également d'une vidéo en mode standard. J'ai tapé « accident de voiture » et au bout de cinq secondes, vous pouvez voir que de la fumée s'échappait de la Parfois, cela ne génère pas ce que vous lui demandez de générer. Dans cet exemple, je lui demande de retirer les lettres du hamburger, et cela vient de générer cette vidéo. Et dans un autre exemple, une main ajoute de la galette supplémentaire dans le hamburger, et nous avons cette main qui ajuste le hamburger au lieu ajouter la galette Et dans cet exemple, je tape Imodi devient rouge et se met en Au bout de 5 secondes, nous avons ce résultat. Il se met en colère, mais il n'est pas rouge. Non seulement vous pouvez prolonger votre vidéo jusqu'à 10 secondes, vous pouvez également l'étendre autant que vous le souhaitez. Comme dans cet exemple, dans l'historique de mes extensions, il s'agit de l'invite d'origine à laquelle nous avons généré cette vidéo. Et après avoir ajouté l'avion qui passe, j'ajoute que l'avion vole au loin Puis dans la dernière invite, j'ajoute que le ciel devient plus sombre. La pluie est sur le point de tomber. Voici donc la vidéo complète. Il n'ajoute aucun avion, mais le ciel s' assombrit, ce que je remarque Au bout de 15 secondes, le ciel s'assombrit. Voici donc comment vous pouvez étendre votre clip à l'aide de King. 20. kling 1.0 vs kling 1.5: Bon retour. Nous avons donc maintenant toutes les vidéos générées avec Kling AI avec un mode différent. Et dans cette conférence, nous comparerons 1,0 par mode factionnel à 1,5 par mode factionnel Donc, ici, nous avons le réglage de la vidéo générée suivante. Le premier est 1,0 par résultat en mode factionnel. Et maintenant, nous avons un résultat de 1,5 en mode professionnel. Comme vous pouvez le constater, le 1.5 fournit ce que je lui demande, tandis que le 1.0 ne fournit qu' une vidéo d'un accident de voiture. Nous avons un autre exemple. Ici, nous avons l'invite, nous avons les paramètres, et voici le résultat du mode professionnel 1.0. Et avec les mêmes réglages, il s'agit du mode 1.5 pro. Et nous avons un autre exemple. Avec ce paramètre, nous avons un résultat de promotion de 1,0, et maintenant nous avons une promotion de 1,5 Il y a donc une énorme différence entre 1.0 promode et 1.5 promote Voyons un autre exemple. Avec ces paramètres, nous avons un résultat promotionnel de 1.0. Et avec exactement le même réglage avec 1,5, nous avons obtenu ce résultat. Alors, tu as remarqué quelque chose ? Voyons également un autre exemple. Avec ce paramètre, il s'agit d'un résultat promotionnel de 1,0, et avec exactement le même paramètre, nous avons un résultat de promotion de 1,5. Avec ce paramètre, il s' agit du résultat de promotion 1.0. Et avec exactement le même réglage, nous avons obtenu un résultat de promotion de 1,5. Si on en avait fini avec une vidéo de personnage animée, quoi ressemblerait-on ? Avec ce paramètre, nous avons obtenu un résultat promotionnel de 1,0. Comme vous pouvez le voir, les gars, nous avons obtenu notre animation faciale, et avec exactement le même réglage, nous avons 1,5 promotion. Parlons maintenant de ce à quoi elles ressembleraient si vous donniez vie à vos photos . C'est donc le résultat de 1.0 promote, et c'est le résultat de 1.5 promote. Donc, si vous voulez donner vie à vos photos, il n'y a pas beaucoup de différence entre 1.0 et 1.5 promote. La promotion 1.5 est donc plus cohérente que la promotion 1.0. version 1.0 génère des vidéos époustouflantes, mais certaines distorsions peuvent être remarquées. Mais il n'y a pas de distorsion énorme. Si vous utilisez le mode standard, vous obtiendrez une distorsion ou une violation énorme. Mais si vous utilisez la promotion 1.0, vous n'aurez pas de distorsion ou d'infraction énorme. Mais si vous considérez la version 1.5 promode, il serait préférable de l' utiliser car il n'y a pas beaucoup de distorsion ou d' infraction à ce que je remarque En comparant les deux, je remarque que la version 1.5 est plus cohérente et offre la meilleure promotion que la promotion 1.0. 1.0 promote, dans certains scénarios, donne de meilleurs résultats que 1.5. Voici donc la conclusion à tirer de la question de savoir si vous souhaitez utiliser 1.5 ou 1.0 promote. 21. Mode standard Kling 1.5 VS Kling 1.0: Bon retour, tout le monde. La nouvelle mise à jour de Kling AI nous permet donc d'utiliser Kling 1.5 en mode standard. Avant cette mise à jour, nous ne pouvons donc utiliser que le mode professionnel. Nous pouvons maintenant utiliser le mode standard, ce qui est une bonne chose. Et le mode standard prendra 20 crédits. Tout d'abord, je vais sélectionner le modèle de l'image par rapport à la vidéo et sélectionnons une image. Maintenant, je vais sélectionner mon image, et maintenant je vais taper cet homme brun qui court dans une ville cyberpunk vêtu d' un costume de style cyberpunk Maintenant, sélectionnons le mode standard, puis cliquons sur Générer. Maintenant, j'ai généré quelques exemples, et maintenant nous allons comparer le mode standard Kling 1.1 au mode standard 1.5. C'est le premier exemple, hommes qui courent dans un environnement cyberpunk vêtus d'un costume de style cyberpunk Et comme vous pouvez le voir, les gars, j'utilise Kling 1.0, et j'ai utilisé le mode standard. Et voici le résultat. Et avec la même image et le même message, voici Kling 1.5. Et comme tu peux le voir, mon gars, le résultat s'est beaucoup amélioré. Je n'ai même pas utilisé le mode professionnel pour celui-ci, comme vous pouvez le voir ici, j'ai utilisé le mode stand in. Regardons maintenant un autre exemple. Une boue géante s'éloignait du plafond et recouvrait le corps de l'homme Maintenant, j'utilise le mode professionnel Kling 1.5 pour celui-ci, et c'est le résultat du mode professionnel, Kling 1.5. Et avec la même image avec le même message, j'utilise simplement le mode stand in de Kling 1.5, et voici le résultat. Vous pouvez donc utiliser le mode standard de Kling 1.5 et vous obtiendrez des résultats assez étonnants. Nous avons ici un autre exemple, celui homme fuyant le tsunami arrivant de l'arrière-plan. J'utilise le modèle Kling 1.0 et j'utilise le mode standard. Et voici le résultat. Et avec la même image et le même message, voici le résultat de Kling 1.5. Et comme vous pouvez le constater, les gars, les résultats sont assez constants. Nous avons maintenant un autre exemple du mode standard ing 1.0, homme fuyant la grosse explosion qui se produit dans la caméra de fond qui le suit. Avec la même image avec la même invite, c'est le résultat du mode standard Kling 1.5. Y. Voici maintenant le dernier exemple Tout le monde commence à se battre, à se donner des coups de poing. J'utilise Kling 1.0 et j'utilise le mode standard pour celui-ci, et voici le résultat. Et avec Kling 1.5, nous avons ici ce résultat. Vous pouvez maintenant utiliser le mode standard de Kling 1.5 et vous obtiendrez des résultats assez étonnants si vous n'avez pas de compte professionnel sur Kling AI. 22. Cadre de départ et de fin Kling 1.5: Bon retour. Ainsi, dans la nouvelle mise à jour, vous pouvez également utiliser les cadres de début et de fin en utilisant le modèle 1.5 Cling AI. Maintenant, je génère ce clip en utilisant ces deux images, voici l'image de départ et voici l'image de fin. D'ailleurs, vous pouvez également échanger le cadre de fin et le cadre de départ si vous le souhaitez. Et j'utilise le mode professionnel pour cette génération, et voici le résultat. Et comme vous pouvez le voir, les gars, presque tous les mouvements de mon corps sont irréguliers. Passons donc le modèle à 1,5, et voyons si la vidéo restera cohérente ou incohérente. Nous avons un autre exemple de début et de cadre. En utilisant le mode standard, voici le résultat. Passons maintenant au mode professionnel et passons le modèle à 1,5. Nous avons également cet exemple. En utilisant le mode professionnel 1.0, il s' agit du cadre de départ et du cadre final. Et nous avons obtenu ce résultat. Voyons maintenant si nous avons obtenu un résultat cohérent en utilisant 1.5. Passons donc davantage à 1,5, puis cliquons sur concentrer. Les vidéos sont donc maintenant générées. Voici le résultat final. La vidéo est donc assez cohérente. Mais il y a une incohérence sur mon visage que je ne vois pas Mais il a trouvé la bonne motion. Il est amélioré par rapport au mode professionnel 1.0. Voyons maintenant le deuxième exemple. Et je pense que ce résultat est plutôt étonnant par rapport au mode debout de 1.0. Maintenant, si vous utilisez des images incohérentes, si vous utilisez la première image et deuxième image est complètement différente de la première image, vous obtiendrez un résultat étrange. Et en voici le premier exemple. Sur les deux images, la voiture est coincée dans un mur. C'est pourquoi nous avons obtenu ce résultat. Même si vous utilisez 1.5, vous obtiendrez un résultat étrange. Maintenant, c'est le deuxième exemple. Si vous utilisez des images complètement différentes, le cadre de départ est différent du cadre de fin. C'est pourquoi nous avons obtenu ce résultat. Et comme vous pouvez le constater, j' utilise le mode 115 professionnel. Dans cet exemple, j'utilise une Ferrari. Si vous souhaitez générer des images cohérentes, rendez-vous d'abord sur designer dotmicrosoft.com Et pour la Ferrari, je saisis simplement une vue panoramique d'une voiture Ferrari. Et en tapant ce mot, vous devez simplement améliorer l'invite, cliquer sur cette invite améliorée, et il écrira l'invite pour vous. Vous pouvez maintenant copier, sélectionner la taille ou générer les images à partir de designer dotmicrosoft.com Mais les images de Designer Microsoft l'air caricaturales Ils n'ont pas l'air réalistes. Pour générer des images réalistes, rendez-vous dans Labs point Google et allez dans Effets d'image. Comme vous pouvez le voir, les gars, j' ai sélectionné des effets d'image. Passons à la section Ma bibliothèque. Et comme vous pouvez le voir, les images des labos parsèment Google, c'est assez réaliste. Maintenant, en cliquant ici, vous pouvez accéder à Image effet, vous pouvez coller votre invite et cliquer sur ce bouton pour générer. Pendant la génération des images, passons au designer, et comme vous pouvez le voir, les gars, les images du designer ont l' air caricaturales Alors que si vous allez dans les laboratoires pointant sur Google, nous obtenons des résultats réalistes. Téléchargeons cette image. Et si vous faites défiler l'écran vers le haut jusqu'à votre invite, comme vous pouvez le voir, c'est un grand angle. Nous pouvons également modifier cela pour fermer. Nous pouvons également changer la couleur de la Ferrari. Nous pouvons changer le nom de la marque. Vous pouvez modifier la couleur du mot clé si vous le souhaitez. Nous pouvons maintenant cliquer sur Générer. Avant de générer un grand angle, nous pouvons maintenant générer un gros plan d'une Ferrari. Et en faisant cela, comme vous pouvez le voir, les gars, vous obtiendrez des images cohérentes. Maintenant, cliquons sur ce bouton de téléchargement. Et maintenant, si nous ouvrons les images, ces deux images semblent cohérentes. Ils se ressemblent. Après avoir téléchargé les images, je sélectionne le gros plan au début et le plan blanc à la fin, et nous avons obtenu le résultat. Et d'ailleurs, cela est généré en utilisant le mode standard 1.0. Et avec les mêmes images, nous avons obtenu ce résultat. Comme vous pouvez le constater, le résultat est constant. Si vous souhaitez que la caméra bouge, vous pouvez également changer de cadre. Et pour ce résultat, j'échange simplement le cadre. Je sélectionne le plan blanc dans l'image de départ et change le plan rapproché dans l'image de fin. Et c'est le résultat que nous avons obtenu. Et ces deux images ont également été générées en utilisant le point lapsus de Google, et nous avons obtenu ce résultat. Il existe donc une autre méthode si vous souhaitez générer des images cohérentes. Tout d'abord, allez sur Chat GBD et demandez-lui d'écrire une invite de génération d' image, une bouteille d'eau tombée du ciel à Paris Et nous avons reçu cette invite et nous lui demandons maintenant d' écrire une invite pour la deuxième scène. Maintenant, je lui demande simplement de garder ces deux instructions cohérentes et de me les donner. Je copie et colle cette invite dans Labs point Google. Comme vous pouvez le constater, il s'agit du premier résultat rapide et du deuxième résultat rapide. La bouteille tombe du ciel et, dans la seconde invite, elle a atterri au sol. Et voici le résultat. Maintenant, j'ai utilisé le mode 1.0 tenon, mais vous pouvez changer votre modèle en 1.5 et sélectionner le mode professionnel, et vous obtiendrez alors des résultats professionnels et cohérents Maintenant, vous pouvez également demander à JA GPT de générer des images pour vous. Comme vous pouvez le constater, les gars, je lui demande d'écrire six instructions, garder la cohérence en six, un laps de temps entre une plante et un arbre adulte Voici six instructions, mais je lui demande de générer ces images et de générer ces images Et puis je lui demande si tu peux les rendre réalistes ? Et nous avons obtenu ces résultats ? Puis je lui ai demandé de les rendre ultra réalistes et nous avons obtenu ces résultats. Ensuite, je mets ces deux images et je regarde le résultat. Ainsi, en utilisant des images cohérentes, vous obtiendrez un résultat professionnel. Voici un autre exemple : si vous échangez le cadre du formulaire, nous obtenons cette transition en fondu entre ces deux cadres. Et si vous utilisez ce cadre au début et ce cadre à la fin et que vous utilisez le standard 1.0, nous obtenons ce résultat, qui est meilleur que 1,5 résultat, mais 1,5 résultat est cohérent. J'espère donc que vous aurez une idée de la façon dont vous pouvez générer les vidéos de début et de fin de manière professionnelle. Veillez simplement à la cohérence des images. Maintenant, si vous avez deux images cohérentes, vous pouvez générer des résultats assez étonnants. Comme si j'avais ces deux images qui semblent identiques l'une à l'autre. Dans le premier cadre, nous avons une graine, et dans le cadre final, nous avons une petite plante ou un arbre. Maintenant, j'utilise le mode standard link 1.0, et nous avons obtenu ce résultat. Une graine qui devient une plante ou un petit arbre. Maintenant, je passe simplement mon modèle en mode 1.5 professionnel, et j'ai obtenu un résultat étrange. La graine ne se transforme pas. Nous n'avons rassemblé que deux clips dans une vidéo. Donc, si vous obtenez ce type de résultat, essayez de taper une invite. J'utilise donc à nouveau ces deux images et je tape une invite, graine se transformant en un petit arbre. Et puis j'ai obtenu ce résultat incroyable. 23. Pinceau de mouvement de Kling 1.5: Bon retour. La nouvelle mise à jour de Kling AI nous permet donc d'utiliser Kling 1.5 avec la fonction Draw Brush. Vous pouvez maintenant utiliser la fonction Draw Brush avec Kling 1.5. Nous avons donc maintenant cet exemple. Comme vous pouvez le voir, les gars, je l'ai généré en utilisant la fonction Draw Brush. Et voici le tracé de mon pinceau de dessin, et c'est le résultat du mode standard Kling 1.0. Maintenant, avec la même image avec le même tracé dessiné, je vais utiliser le mode professionnel, sélectionner Cling 1.5 et générer. Nous avons maintenant un autre exemple. Et si je prends le chemin, comme vous pouvez le voir, les gars, c'est mon chemin. Maintenant, je vais utiliser le mode professionnel et passons au modèle 1.5, puis cliquons sur Générer. Nous avons maintenant la même image cette fois. Mais je n'ai dessiné que le flash du pistolet, comme vous pouvez le voir. Je vais maintenant sélectionner le mode professionnel et sélectionner clean 1.5, puis cliquer sur Générer. Il s'agit d'un autre exemple de brosse à mouvement avec mode professionnel et d'utilisation. Il s'agit d' un autre exemple de brosse à mouvement utilisant le modèle clean 1.0 et le mode professionnel. Et si nous empruntons le chemin, c'est le chemin que j'ai tracé, et voici le résultat. Maintenant, changeons de modèle en dessinant le même tracé de pinceau. Cliquons sur générer. Et nous avons également cet exemple. Avec cette image, si nous reprenons le tracé du pinceau animé, c'est le chemin que j'ai dessiné. Avec un mode professionnel de 1.0, c'est le résultat. Si vous regardez ma conférence précédente sur le motion brush, j'essaie vraiment de me faire asseoir. Et au final, j'ai obtenu ce résultat après quelques essais. Essayons maintenant le même chemin de pinceau de mouvement, mais avec Kling 1.5, et utilisons le mode professionnel pour accéder au pinceau de mouvement de 1.5. Et c'est maintenant le résultat du mode professionnel Kling 1.5. Et comme vous pouvez le voir, les gars, tout est maintenant constant. Et voici le deuxième exemple de brosse à mouvement en mode professionnel 1.5. Et comme vous pouvez le voir dans le guide, le résultat est assez étonnant. Et voici un autre exemple où je me contente de brosser le flash du pistolet. Et celui-ci est assez délirant. Et voici un autre exemple de votre botte. Et comme vous pouvez le voir, les gars, le mouvement de leur corps est constant. Il n'y a aucune infraction dans la vidéo, quelle que soit l'image. Cela ressemble un peu à une vraie animation en trois dimensions. Même dans cet exemple, alors que dans le mode professionnel de la version 1.0, nous avions un mouvement de main étrange, mais en version 1.5, je remarque que le mouvement de la main est désormais corrigé Donc, 1.5 est en fait amélioré dans Motion Brush, et c'est le résultat du fait que j' essaie de m'asseoir à l'aide de l'IA. Et je trouve ce résultat assez incroyable. Et voici d' autres exemples étonnants. J'utilise donc cette image, et si nous passons au pinceau de mouvement, je trace ce chemin. Tout d'abord, je dessine la pédale et trace de ce côté. Ensuite, je puise toute l'eau et je la trace jusqu'à ce côté. Ensuite, je retire ce côté de l'eau parce que si on regarde l'image, on a ces ondulations dans l' Je supprime donc cette partie. Je supprime donc ce chemin à l' aide de l'outil tableaux, puis je sélectionne la zone trois, trace ce chemin et je trace ce pad de ce côté Enfin, je sélectionne mon sujet d'accueil et je fais le suivi de mon sujet jusqu'en haut de la page. Maintenant, à la finale, je dessine ce tableau sous forme de zone statique. Et j'utilise le mode standard pour cette génération de pinceaux animés et j'utilise la version 1.0. Et si je joue ma vidéo, c'est un résultat 1.0. Même la version 1.0 a l'air incroyable. Maintenant, en utilisant la version 1.5 avec la même image, le même tracé de pinceau, nous avons obtenu ce résultat cohérent. N'est-ce pas incroyable ? Maintenant tu peux faire une dernière chose. Si vous remarquez, nous avons un problème. Le bateau ne bouge pas du tout. Vous pouvez donc également sélectionner l'outil As, activer la segmentation automatique et effacer la zone statique. Parce que nous dessinons le bateau comme une zone statique, c'est pourquoi le bateau ne bouge pas. Nous pouvons maintenant sélectionner l'outil de brosse. Nous pouvons sélectionner la zone 5. Nous pouvons dessiner le bateau entier. Et nous pouvons suivre le bateau jusqu'à ce site. Maintenant, confirmons. Et pour cela, je vais utiliser mon mode standard et sélectionner 1.0. Pendant la génération de la vidéo, voyons un autre exemple. J'utilise donc cette image, et si nous passons à la trajectoire du pinceau de mouvement, maintenant dans la trajectoire du pinceau de mouvement, je dessine ma voiture, et je veux la déplacer de ce côté. Et je dessine l'ensemble de la zone comme une idée statique. Avec le mode standard 1.0, c'est le résultat final. Comme vous pouvez le voir, la voiture roule dans cette direction. Je répare donc mon espace pour la prochaine génération. Si nous passons au pinceau de mouvement, je trace ma ligne de ce côté. Dans le passé, je dessinais ma ligne comme ceci. Maintenant, je suis passé de ce côté. Et nous avons ici le résultat du mode standard 1.0. Et on dirait que la voiture dérive un peu. Et avec le mode professionnel 1.0, avec ce chemin mis à jour, nous avons ici le résultat. Et avec la même voiture, la même image, le même chemin. Mais cette fois, j'utilise le mode professionnel 1.5, et voici le résultat final. Maintenant, nous avons également un autre exemple. J'utilise cette image, et si nous utilisons le pinceau de mouvement, je dessine ma voiture et je trace ce chemin. Je veux déplacer cette voiture de ce côté, et je dessine l'océan entier et je déplace l'océan ce côté et je dessine toute la zone sous forme de zone statique. Et voici le résultat. Ce n'est pas ce à quoi je m'attendais. La voiture recule au lieu d'avancer. Donc, dans ma prochaine génération, je règle ce problème. Je trace ce chemin de ce côté, je trace la flèche de ce côté. Dans la génération précédente, je dessinais la flèche de ce côté. Donc, en traçant la flèche de ce côté sur le sol, j'ai obtenu ce résultat. Nous réglons ce problème. Donc, si vous avez ce genre de problème, vous pouvez facilement les résoudre en contrôlant votre zone. Et en utilisant le mode professionnel 1.5, voici le résultat final. Comme vous pouvez le constater, la vidéo est cohérente. Il n'y a aucune infraction. Tout semble réaliste. Et nous avons un exemple où nous avons un tigre. Et si vous utilisez le pinceau à mouvements, je dessine le tigre, je pointe la flèche dans l'eau, je dessine l'eau entière et je pointe la flèche de ce côté. Je veux que l'eau se déplace de ce côté, et je veux que mon tigre entre dans l'eau. Et c'est ce que nous avons obtenu en utilisant la version 1.0. Maintenant, si vous utilisez le pinceau de mouvement, je dessine cette roche comme grenier. Mais dans ma prochaine génération, si nous utilisons le pinceau à mouvements, je supprimerai cette zone en tant que grenier. Et je corrige également le positionnement de mes flèches du tigre, et avec le mode professionnel 1.5, c'est le résultat final. C'est le résultat que nous souhaitons. Le bateau bouge un peu. Ce n'est pas le bateau, mais nous avons vu un moment de caméra dans la vidéo. Utilisons maintenant un mode professionnel, utilisons 1.5 et générons. Donc, si vous ne voulez pas perdre de crédits supplémentaires, j'ai un conseil pour vous. Si vous souhaitez utiliser Motion Brush, utilisez le mode tendon 1.0 En faisant cela, si vous vous trompez, vous pouvez régler votre problème pour la prochaine génération. Et si le problème est résolu, vous pouvez utiliser le mode professionnel 1.5, vous obtiendrez votre génération et la vidéo restera cohérente. Cette méthode vous permet de sauvegarder vos crédits. Si vous utilisez le mode professionnel 1.5 lors de votre première génération, vous perdrez 25 crédits supplémentaires. C'est donc ma façon d' économiser les crédits. Vous pouvez également utiliser la même méthode pour enregistrer vos crédits. Donc, une vidéo en mode professionnel 1.5 est maintenant générée, et voici le résultat. Voici comment vous pouvez utiliser l'outil Motion Brush en utilisant le mode professionnel 1.5. 24. Mouvement de caméra avec Kling 1.5: Bon retour. Ainsi, dans la version précédente de Ling AI, nous ne pouvions pas vraiment utiliser le moment de la caméra si vous passez également de l'image à Video Inkling 1.5 ou Inkling 1.0 Mais maintenant, nous pouvons utiliser le moment de la caméra dans Cling 1.5 en utilisant le mode professionnel. Donc, pour générer des images, j'utilise designer domicrosoft.com, copiez cette invite Ensuite, je colle l'invite dans les laboratoires, point Google. Et sélectionnez l'image de gauche. Vous pouvez désormais également modifier le mot clé surligné. Si je vais dans ma bibliothèque, comme vous pouvez le voir, ce sont mes premiers résultats rapides Je sélectionne le mot clé surligné et je modifie quelques mots clés, puis j'obtiens ces résultats. Si vous allez dans le Microsoft Designer, je sélectionne cette image, vous pouvez cliquer ici, modifier l'intégralité du bal de fin d'année, vous pouvez copier cette invite, et je colle cette invite dans les laboratoires de Google, et j'ai obtenu ces résultats. Accédez à Cling AI, sélectionnez votre modèle sur 1.5. Passez de l'image à la vidéo. Maintenant, je vais d'abord sélectionner l'image mobile. Vous pouvez faire défiler l'écran vers le bas et sélectionner le mode professionnel. Et dès que vous avez sélectionné votre mode professionnel, comme vous pouvez le voir, nous avons un moment de caméra. Vous pouvez sélectionner le moment de votre caméra dans ce menu déroulant si vous faites défiler encore plus la page vers le bas, comme vous pouvez le voir, mec, ce sont mes moments devant la caméra. Donc, si vous sélectionnez cette option, vous pouvez modifier le curseur pour obtenir le moment de votre appareil photo Si vous passez à moins dix sur le côté gauche, vous obtiendrez un moment de caméra horizontal gauche. Si vous sélectionnez la verticale, vous obtiendrez le moment vertical de la caméra. Nous avons le zoom, le stylet et le tilt and roll. Je vais donc sélectionner ce stylo moins dix. Changeons les deux moins cinq. Il ne faut pas aller à l'extrême. Passons peut-être à l'extrême. Maintenant, cliquons sur le taux de contenu. Maintenant, sélectionnons cette image et téléchargeons cette image. Et pour cette image, je vais sélectionner l'inclinaison et passer à moins dix. Ou peut-être pouvons-nous sélectionner cette image. Téléchargeons cette image, faisons défiler la page vers le bas, et je vais changer mon inclinaison à dix. Maintenant, nous allons cliquer sur générer. Je génère également cette image, et c'est l' invite de cette image. Maintenant, pour cette image, je vais changer le panoramique à dix. Pendant la génération de cette vidéo, je vais vous montrer quelques exemples de moments passés devant la caméra en utilisant 1,5 image pour vidéo. Dans cet exemple, je sélectionne cette image et je change le moment de mon appareil photo en dix à la verticale, et j'ai obtenu le résultat suivant. Maintenant, dans la deuxième image, je change le moment de la caméra en panoramique moins dix, et nous avons obtenu le résultat suivant. Et pour cette image, j'utilise Zoom camera moment, valeur dix, et voici le résultat. Comme vous pouvez le voir, les gars, 1,5 est assez constant. Et pour cette image, j'utilise le point panoramique de mon appareil photo, valeur dix. La caméra se dirige vers le ciel. Et si vous remarquez qu'il n'y a aucune incohérence dans la vidéo, est à peu près cohérente Et dans cet exemple, j'utilise la valeur dix du rôle. C'est le moment extrême de la caméra. Et il y a quand même une infraction ici, mais pas trop. Maintenant, d'ailleurs, vous pouvez également mélanger ces types de vidéos avec caméra. Par exemple, je peux mixer cette vidéo avec cette vidéo, téléchargeons ces deux vidéos. Je vais maintenant vous montrer comment mélanger ces types de vidéos avec caméra. Tout d'abord, ouvrez le capuchon découpé. Il s'agit du meilleur logiciel de montage vidéo pour débutants sur le marché. Maintenant, créez un nouveau projet. Cliquez ici pour créer un nouveau projet. Sélectionnez maintenant ces deux vidéos et importez-les ici même dans la page média. Maintenant, je peux d'abord importer cette vidéo, et importons cette vidéo à côté du premier clip. Nous pouvons maintenant appuyer sur la touche espace pour prévisualiser ce clip. La caméra se déplace donc de ce côté, nous pouvons donc également inverser ce clip Mais je pense qu'au lieu d' inverser le clip, plaçons ce clip ici et nous pouvons inverser ce clip ici. Cliquez ici. Sélectionnez d'abord votre clip et cliquez ici pour inverser votre clip vidéo. Et maintenant, comme vous pouvez le voir, nous pouvons mettre cette vidéo ici. Nous pouvons également sélectionner ce clip, accéder au masque, sélectionner le masque horizontal. Nous pouvons inverser ce masque en cliquant ici, sélectionner cette flèche et la déplacer vers pour créer cette plume Nous pouvons maintenant faire glisser cette ligne de ce côté et changer la plume Deux 0 %. Maintenant, ajoutez une image-clé ici, et nous pouvons également ajouter l' image-clé en position Maintenant, avancez de quelques images, changez-le de ce côté et changez également la plume Et maintenant, si vous regardez la vidéo, nous avons obtenu un résultat incroyable. Recadrons-le, sélectionnons ce clip, passons à l'animation, passons à l'animation de sortie, et nous pouvons ajouter une animation en fondu. Et si je joue ce clip, comme vous pouvez le voir, les gars, c'est le résultat final. Voici comment vous pouvez utiliser vos clips de caméra de Kling AI et les fusionner comme ceci. Voici un autre exemple de moment passé devant la caméra en utilisant le mode professionnel Kling 1.5. Il s'agit de la valeur du moment de la caméra panoramique moins dix, et voici le résultat. Maintenant, je recommande vivement de ne pas utiliser à une valeur extrême le moment de votre appareil photo. Dites simplement, comme ici, si vous voulez obtenir un résultat réaliste, deux moins trois ou deux plus trois, si vous voulez obtenir un résultat incroyable. Nous avons maintenant le deuxième exemple où j'utilise la position d'inclinaison extrême dix, et voici le résultat. Maintenant, voici le dernier exemple. J'utilise le panoramique plus dix, et c'est aussi un moment extrême devant la caméra. Mais pour ce cliché, cela fonctionne plutôt bien. Voici donc comment vous pouvez utiliser le moment de l'appareil photo en utilisant le mode professionnel 1.5. 25. Kling 1.6 vs 1.5 vs 1.0 Text-to-Video: Bon retour. Kling AI vient donc de lancer son nouveau modèle, Kling 1.6, qui devrait être amélioré par rapport à sa version précédente. Comme Kling 1.5, vous pouvez également utiliser le mode standard avec Kling 1.6. Mais actuellement, nous ne pouvons pas vraiment utiliser le pinceau de mouvement, et nous ne pouvons pas vraiment utiliser le moment de la caméra avec Kling 1.6. J'ai donc cet exemple. C'est une invite, et j'utilise le mode professionnel Kling 1.0, et voici le résultat. Maintenant, avec la même invite, j'utilise Cling 1.5, et c'est le résultat du mode professionnel 1.5. Passons maintenant à l' édition et générons-le avec une nouvelle version de 1.6. Nous pouvons maintenant cliquer sur Générer. La vidéo est donc maintenant générée, et voici le résultat. Voyons le résultat. De loin, 1,6 est assez étonnant. C'est bien mieux. Il est bien supérieur aux versions 1.5 et 1.0 car vous ne pouvez pas vraiment détecter de violation d'image ou vous ne pouvez pas vraiment remarquer de violation d'image dans les clips que vous avez générés. Maintenant, j'ai un autre exemple que je voudrais partager avec vous. C'est l'invite, et j'utilise 1.6 promote pour cette génération, et nous avons ici le résultat. Comme vous le constatez, il n'y a aucune violation d'image dans les clips générés. Et comme vous pouvez le constater, les gars, le 1.6 est plus clair et il n'y a aucune violation d'inframe dans le 1.6 Dans les versions 1.0 et 1.5, il y a une petite violation de cadre, mais dans la version 1.6, il n'y a aucune violation de cadre dans le résultat généré. Maintenant, nous avons un autre exemple. C'est l'invite, et j'utilise également le mode pro pour cette génération. Et le résultat semble réaliste. Il y a une petite violation du cadre ici, mais tout semble parfait. Et il s'agit d'un résultat de 1,0 et 1,5. Maintenant, avant que vous ne vous enthousiasmiez et que vous commenciez à utiliser la version 1.6, je voudrais partager ce secret avec vous. Le 1.6 est composé de quatre clips réalistes. Si vous utilisez une invite irréaliste, vous n'obtiendrez pas de meilleurs résultats que 1,5 ou 1,0 Permettez-moi de vous montrer un exemple. À la même invite, nous avons à la fois un résultat 1.0 et 1.5. Et maintenant, avec la même invite, c'est le résultat du mode 1.6 pro. n'y a aucune violation du cadre, mais je n'ai pas aimé le style de 1.6. La version 1.5 est bien meilleure si vous souhaitez générer des clips animés, mais la version 1.6 est préférable pour des clips réalistes. Donc, avec ce bal de promo, c'est le résultat du mode 1.5 pro. Et avec la même invite, c'est le résultat du mode 1.6 pro. Maintenant, toutes ces vidéos sont générées en mode professionnel 1.6, mais le mode standard 1.6 est-il également utile pour la génération de vidéos ? Je vais vous montrer quelques exemples, et je vais comparer les modes standard 1.0, 1.5 et 1.6 car toutes ces vidéos sont générées en mode professionnel. Voyons maintenant si le mode standard également suffisant pour la génération de vidéos ou non. Voici donc l'invite, et c'est le résultat du mode standard 1.0. Maintenant, avec la même invite, il s'agit du résultat en mode standard de 1,5. Et 1,5 est également utile pour la génération de vidéos. Et maintenant, nous avons le mode standard 1.6 final. Donc, comme je vous l'ai dit tout à l'heure, 1.6 est bien plus réaliste que l'autre, car la vidéo 1.5 a l'air géniale, mais c'est irréaliste pour moi La version 1.6 est donc destinée à la génération réaliste, mais si vous souhaitez générer entre réalisme et irréalisme, utilisez 1.5 C'est maintenant un autre exemple. C'est l'invite, et c'est le résultat de 1.5. Et nous avons ici le résultat du mode standard 1.6. Et pour cet exemple, je pense que la version 1.6 est clairement gagnante, car dans la génération 1.6, vous pouvez clairement voir un petit moment passé devant la caméra et tout semble parfaitement clair Maintenant, avec cette invite, il s'agit d'un résultat de 1.0. Et c'est un résultat de 1,5 en mode standard. Et maintenant, c'est le résultat de 1,6 avec la même invite. Et pour cet exemple, version 1.6 est également la solution gagnante pour cette génération, car en arrière-plan, le bâtiment est également très beau et peut également être très beau. Nous avons maintenant un autre exemple. Il s'agit de l'invite, et c'est le résultat du mode standard 1.0. Avec la même invite, c'est le résultat du mode standard 1.5. Enfin, nous avons le résultat du mode standard 1.6. Et comme vous pouvez le voir, les gars, 1.6 c'est génial. Il semblerait que nous filmions cette sphère avec le téléphone portable. Et comme je vous l'ai dit tout à l'heure, 1,5 se situe entre le réalisme et l'irréalisme Nous avons maintenant l'avant-dernier exemple. C'est l'invite, et tout d'abord, c'est le résultat du mode standard 1.0. Et comme on s'y attendait, tout semble pourri. Passons maintenant à la version 1.5. Avec la même invite, 1.5 parvient à générer ce chef-d'œuvre. Il y a une petite infraction, mais tout semble parfait. Enfin, nous avons un résultat de 1,6. Et c'est un résultat inattendu pour moi. Parce que je trouve que la version 1.5 convient parfaitement à cet exemple. Parce qu'en 1.5, vous pouvez voir clairement en arrière-plan, nous avons une certaine audience, mais en 1.6, il n'y en a pas. Et comme je vous l'ai dit plus tôt, si vous souhaitez générer une vidéo réaliste, utilisez 1.6. Mais si vous ne voulez pas générer une vidéo réaliste, mais que vous souhaitez également générer une partie du réalisme de la vidéo, utilisez 1.5. Maintenant, si vous essayez de régénérer cette invite, c'est le résultat de 1.5 Et étonnamment, la version 1.6 fonctionne désormais un peu mieux. Et si vous remarquez que le robot commence à se diriger vers le robot rouge, le sol tremble et, avec le tremblement du sol , la caméra tremble également légèrement Et maintenant, nous avons le public en arrière-plan. Pour cette génération, je pense qu' il y a égalité entre 1,6 et 1,5. Nous avons maintenant le dernier exemple. chaleur est l'invite, et avec cette invite, il s'agit du mode standard 1.0. Et avec la même invite, c'est le résultat de 1,5. Et maintenant, enfin, nous avons 1,6. Et comme vous le remarquez, les gars, même avec ce mode standard, 1.6 se démarque. Maintenant, je régénère accidentellement cette invite en utilisant 1.5, et voici le résultat régénéré Et 1,5, c'est plus beau qu'avant dans ce clip régénéré Donc, pour ce don, 1,6 est également le gagnant. Donc, de loin, ce que j'ai utilisé 1.6 est bien meilleur si vous voulez générer des clips réalistes. 26. Mode professionnel Kling 1.6 vs mode Kling 1.5: Bon retour. Parlons maintenant génération d'image en vidéo 1.6. La version 1.6 améliore-t-elle la génération d'image en vidéo par rapport à la version 1.5 ? Permettez-moi de vous donner quelques exemples. Tout d'abord, dans cet exemple, nous avons cette image, et j'écris une invite : un couteau coupant une pomme en deux morceaux. Et comme vous pouvez le constater, j'utilise le modèle 1.5, et j'utilise le mode professionnel pour cette génération. Maintenant, même le mode professionnel, comme vous pouvez le voir, les gars, semble irréaliste Maintenant, avec la même image avec la même invite, j'utilise simplement le mode 1.6 professionnel, et c'est le résultat de 1.6. Et après avoir vu cette génération, version 1.6 est bien meilleure que les autres outils actuellement disponibles sur le marché, car le mouvement est excellent et Apple Slice Slide semble réaliste. Voyons maintenant également un autre exemple. Dans cet exemple, j'utilise ma photo et je tape un bal de fin d'année. La pièce s' assombrit très vite, et la tête de la personne est en feu pour éclairer la pièce qui suit. Je veux donc que la pièce sombre et que mon visage soit incendié. Et comme vous pouvez le constater, j'utilise le mode professionnel 1.5, et voici le résultat. Ça a l'air génial, mais ça n'a pas l'air réaliste. Maintenant, nous allons extraire le résultat de 1.6 avec la même invite et avec la même image. J'utilise le mode professionnel pour la version 1.6. Même la vidéo est irréaliste, mais visuellement, 1,6 est bien mieux Nous avons maintenant un autre exemple. Et sur cette photo, je tape Man fuyant le robot qui le suit. J'utilise le mode professionnel 1.5 et j'ai obtenu ce résultat bizarre. Et après avoir vu ce résultat, je me suis dit pourquoi ne pas régénérer ce clip en utilisant le mode professionnel 1.6 1,6 va être mieux, non ? Si je joue mon clip, comme vous pouvez le voir, la personne court, tout semble réaliste, mais il n' y a aucun robot dans le clip. Je lui demande d'ajouter un robot, mais il n'y a aucun robot dans le clip. C'est donc un peu décevant. Je veux donc régler ce problème. J'ai donc réfléchi à la manière de résoudre ce problème. Donc, dans cet exemple, je change simplement le bal de fin d'année. Personne qui court vers la caméra, notre robot géant le poursuit. J'utilise une image différente parce que dans l'image précédente, on ne voit pas vraiment mon visage. Et j'utilise le mode professionnel 1.6, et maintenant nous avons amélioré le résultat. La personne court et le robot le poursuit également. Et comme tu peux le voir, mec, le résultat est vraiment superbe. Et je suis satisfait de ce résultat. Donc, si vous avez un problème avec votre génération, modifiez simplement l'invite. Vous obtiendrez le résultat que vous souhaitez. Maintenant, si vous n'obtenez pas le résultat que vous voulez, comme dans cet exemple, avec la même image avec le même bal de promo, j'ai obtenu ce résultat. Mais je régénère ce résultat, et j'ai obtenu ce résultat, qui est également amélioré en termes de qualité et de mouvement Si vous n'obtenez pas le résultat escompté, même si vous tapez un message très précis, vous obtenez une image de haute qualité de vous-même ou de quelqu'un d'autre, essayez de la régénérer en profondeur, car cela vous aide à améliorer la qualité ou le mouvement Nous avons maintenant un autre exemple. Sur cette image, je tape ce ballon coloré qui tombe du plafond. Certains d'entre eux tombent sur la lumière de la personne illuminant la pièce avec un ballon de couleur Et c'est le résultat que j'ai obtenu, c'est d'ailleurs le mode professionnel 1.5, et tout semble parfait. Et maintenant, nous avons 1.6 avec le même pro avec la même image, et aussi le même mode qui est le mode professionnel. Voyons le résultat. 1,6 est bien plus réaliste que 1,5. Mais dans la version 1.6, nous avons obtenu quelques détails. Si vous remarquez sur l'écran LCD, comme vous pouvez le voir, les gars, dès qu'un ballon tombe du plafond, nous avons le reflet sur cet écran LCD. Et nous avons également obtenu des ballons réalistes, mais ils apparaissent pendant une courte période. 1,6 est un peu mieux que 1,5. Si vous comparez le résultat, 1,6 est un peu mieux, pas trop, mais un peu mieux. Mais si vous parlez de l'émotion, 1,6, détruisez simplement 1,5 parce que 1,6 mouvement semble réaliste, alors que 1,5. Si vous regardez 1,5 émotion, ils ont juste le sentiment que ce n'est pas réel. Mais en 1.6, tout semble parfait. Mais j'aime bien les deux résultats. Donc, si vous voulez utiliser la version 1.5, vous pouvez certainement l'utiliser. Maintenant, 1,6 est également meilleur en termes d'expression. Sur cette image, comme vous pouvez le voir, je tape un message, une personne debout avec une expression neutre, passant à une expression triste puis à une expression heureuse, puis enfin à un sourire Et voici le résultat. Maintenant, après ce résultat, je le régénère avec le même mode avec le même modèle, à savoir 1,6 Ici, nous avons régénéré le résultat, et j'aime bien ce résultat par rapport au précédent Donc, si vous n'obtenez pas le résultat escompté, essayez de vous régénérer Nous avons un autre exemple de mode professionnel 1.6. Sur cette même image, je tape un homme qui court dans une ville cyberpunk vêtu d'un costume de style cyberpunk, et voici le résultat que j'ai Si vous essayez quelque chose d' irréaliste, vous risquez d'obtenir quelques violations dans vos clips générés Mais en termes de visuel, je trouve que la version 1.6 est très belle. Et voici maintenant le dernier exemple du mode professionnel 1.6. J'utilise cette image et je tape une carte qui se transforme en voiture blanche, et c'est le résultat du mode professionnel 1.6. Maintenant, en termes de qualité vidéo et de réalisme, 1.6 essaie d'être réaliste autant que possible. 27. Mode standard Kling 1.6 vs Kling 1.5: Bon retour. Le mode professionnel 1.6 est donc meilleur que les autres modèles d'IA. Mais le mode 1.6 tener est-il également utile pour la génération de vidéos ? Découvrons-le à l'aide de quelques exemples. Ici, nous avons cette image et nous avons même problème que celui que nous utilisons en mode professionnel. Maintenant, en termes d'expression, 1.5 n'est pas vraiment bon dans ce domaine. Maintenant, avec la même image avec la même invite avec le même mode, qui est le mode standard, mais j'utilise 1,6, et même en mode standard, 1,6 vaut mieux que 1,5. Nous avons maintenant un autre exemple. Sur cette image, alors cette personne rapide court vers la caméra, un robot géant le poursuit. J'utilise le mode standard 1.5, et voici le résultat. Pour ce don, je pense que 1,5 a vraiment fait du bon travail. Mais le robot ne me poursuit pas. Il poursuit ces gens. Et maintenant, avec la même image avec la même promo, mais avec le modèle 1.6 en mode standard, voici le résultat. Et je pense que la version 1.6 a vraiment fait un excellent travail. Il a également battu 1,5 dans cette génération. Nous avons un autre exemple. Imaginez qu'avec ce bal de fin d'année, tout le monde commence à se battre, à se donner des coups de poing J'utilise le mode standard 1.5, et voici le résultat. Maintenant, avec la même image avec la même promo, il suffit d'utiliser 1.6 pour celle-ci, et j'utilise également le mode standard pour cela. Et voici le résultat. J'ai l'air un peu mieux que 1,5 parce qu'il y a moins d'infractions que 1,5. Prenons également un autre exemple. Maintenant, tu te souviens de ce type ? J'utilise cette image du moster pour comparer le mode professionnel 1.0 et 1.5 Mais ils ne parviennent pas tous les deux à exprimer l'expression de ce monstre Maintenant, avec le mode standard 1.6, 1.6 a vraiment bien exprimé l' expression de ce monstre Voyons maintenant un autre exemple. Sur cette image, il s' agit du mode standard 1.5. À cette invite, une fine boue tombe du plafond et recouvre le corps de l'homme Maintenant, avec la même image avec la même invite, avec le mode standard 1.6, voici le résultat. Maintenant, je pense que 1,5 de cette génération a fait un très bon travail, puis 1,6. Nous avons maintenant un autre exemple avec la même image avec ce bal de fin d'année courant dans une ville cyberpunk vêtu d'un costume de style cyberpunk, avec le mode standard 1.5, voici le résultat Et je ne vais pas mentir. J'aime bien le résultat que j'ai obtenu avec la version 1.5, même avec le mode standard. Mais ma question est la suivante : cela n'a généré aucune cyberpungité Nous n'avons obtenu qu'un cube futuriste ou quelque chose comme ça, mais nous n'avons pas eu de cyberpungity Maintenant, avec la même image avec la même invite, en mode standard 1.6, c'est le résultat que nous avons obtenu. Et même avec le mode standard, 1,6 contre 1,5 en termes de visuel et de qualité vidéo. Maintenant, avec cette même image avec cet homme professionnel fuyant une grosse explosion qui se produit dans la caméra de fond qui le suit. Avec le mode standard 1.5, c'est le résultat. Et avec la même image avec la même invite, mode d'appel d'offres 1.6, voici le résultat. 1.6 sont plus performants en termes visuels et en termes d'expression de l' expression des personnes. Comme vous pouvez le constater, cette personne remarque l'explosion et court vers l'explosion pour sauver des gens ou quelque chose comme ça. Je pense que la 1.6 a également fait un travail vraiment fantastique dans cette génération. Maintenant, vous pouvez vous demander quel modèle utiliser ? 1,6, 1,5 ou 1,0. Maintenant, en termes de réalisme, si vous voulez créer des vidéos réalistes, utilisez 1.6 car 1.6 est bien plus réaliste que 1.5. Mais si vous souhaitez générer un clip, c' est-à-dire un mélange de réalisme ou d'irréaliste, essayez 1,5 car 1,5 génère entre les deux Mais si vous voulez essayer votre invite, si vous voulez expérimenter avec l'invite sans de perdre de crédits supplémentaires, utilisez 1,0 car 1,0 générera avec dix crédits 1,5 et 1,6 vous coûtera 20 crédits par génération. Après avoir expérimenté la génération 1.0, vous aurez peut-être une idée de ce à quoi ressembleraient les vidéos 1.5 et 1.6. Voici donc ma conclusion. J'espère avoir répondu à ta question. Maintenant, si vous avez d'autres questions dans ce cours, n'hésitez pas à me les poser. Je suis toujours disponible pour répondre à vos questions. 28. Comment synchroniser les labiales avec Kling AI: Bon retour. Nous avons donc maintenant une nouvelle mise à jour de Lip Sync. Nous avons maintenant une section dédiée uniquement à la synchronisation labiale. Maintenant, ce qui est nouveau dans cette mise à jour, c'est que nous pouvons télécharger la vidéo afin d'essayer cette synchronisation labiale. Avant cette mise à jour, nous ne pouvions pas vraiment mettre en ligne de vidéo. Nous devons générer une vidéo afin de synchroniser cette vidéo avec les lèvres. Maintenant, si vous utilisez des vidéos contenant plusieurs phases, comme dans cet exemple, comme vous pouvez le voir, nous avons plusieurs visages, l'IA ne reconnaîtra aucune phase. Je recommande donc d'utiliser cette vidéo qui montre clairement votre visage et qui ne contient qu'une seule phase. Je vais maintenant télécharger ma vidéo. Maintenant, une fois que vous aurez téléchargé votre vidéo, IA analysera votre vidéo, puis confirmera que cette vidéo utilise ou non la fonction de synchronisation labiale. Vous pouvez donc clairement voir mon visage dans cette vidéo, alors maintenant nous pouvons chanter cette vidéo sur les lèvres. Maintenant, si vous voulez changer de vidéo, si vous voulez changer de vidéo, par exemple, je ne veux pas utiliser cette vidéo. Si je dois modifier ma vidéo, je dois cliquer ici pour la sélectionner à nouveau. Et maintenant, comme vous pouvez le voir, nous pouvons sélectionner n'importe quelle vidéo que nous voulons. Il existe maintenant deux façons de synchroniser votre vidéo avec les lèvres. Vous pouvez soit utiliser la synthèse vocale, qui contient plusieurs voix, soit télécharger votre propre fichier audio pour effectuer une synchronisation labiale. Maintenant j'ai tapé cette ligne. Passons maintenant au courrier et diffusons cet audio. Salut. Je m'appelle Faison. J'utilise King A. Maintenant, certaines voix ne peuvent pas vraiment utiliser les émotions, et maintenant nous avons ce message. Une émotion neutre n'est pas disponible avec cette voix. Nous avons donc plusieurs voix qui ne peuvent pas vraiment utiliser l'émotion ou la neutralité. Vous devez donc sélectionner une voix différente afin d' utiliser une émotion neutre. Salut. Je m'appelle Faison J'utilise King AI. Salut. Je m'appelle Faison Maintenant, parfois, certaines voix contiennent ce message, donc vous ne pouvez pas vraiment utiliser cette voix. Vous devez sélectionner une autre voix. Salut. Je m'appelle Faizan J'utilise Kling Ai. Utilisons maintenant cette voix. Maintenant, vous pouvez également modifier vos émotions. Choisissons l'émotion de colère. Salut. Je m'appelle Faizan J'utilise King Ai. Passons maintenant au rouge. Nous avons maintenant la synchronisation labiale. Voyons le résultat final. Salut. Je m'appelle Pasan J'utilise King Ai. Nous sommes maintenant confrontés à un problème. Comme vous pouvez le constater, la synchronisation labiale est hors du commun. Parce que si vous regardez attentivement la vidéo originale, ma bouche bouge trop. C'est pourquoi l'IA a du mal à remodeler mes lèvres pour essayer la synchronisation labiale Maintenant, dans cet exemple, où je n'ai pas parlé du tout, comme vous pouvez le voir, les gars, ma bouche ne bouge pas du tout. J'ai généré cette vidéo en utilisant l'IA d'image à vidéo. Maintenant, j'essaie la synchronisation labiale sur cette vidéo et voici le résultat final. Les gars, il y a tellement de ballons dans ma chambre. Non, crois-moi, regarde ça. Maintenant, comme vous pouvez le voir, les gars, la synchronisation labiale est incroyable dans cette vidéo. Nous avons maintenant un autre exemple. Donc, avec cette vidéo, si je passe ce clip, la bouche bouge un peu, pas trop. Et j'essaie la synchronisation labiale sur cette vidéo, nous avons obtenu le résultat. Salut, voilà. Je m'appelle Faison et je vais créer Pixar Comme tu peux le voir, mec, la synchronisation labiale est dingue. Maintenant, comme je vous l'ai dit plus tôt, ne mettez pas en ligne une vidéo contenant deux phases. Eh bien, j'essaie cela et, étonnamment, dans l'IA, il suffit de sélectionner une phase. La raison en est que celui-ci parle. C'est pourquoi Link se concentre sur cette phase, et j'essaie de synchroniser les lèvres sur ce personnage, et voici le résultat final. Vous pensez pouvoir créer des anime sans compétences particulières ? Eh bien, oui, et je vais vous montrer comment faire. Vous pensez pouvoir créer des anime sans compétences particulières ? Eh bien, oui, et je vais vous montrer comment faire. Nous avons maintenant un autre exemple d'animation de style anime. Il s'agit de la source originale où le personnage parle, mais pas trop, et c'est le résultat final de Lip Sync. D'accord, une heure de travail, et je suis prêt à partir. C'est un autre exemple, et c'est ma source d'origine où la bouche de ce personnage ne bouge pas du tout, et voici le résultat de la synchronisation labiale. Quelle belle journée pour une balade. Il faut continuer sur cette lancée. Nous avons maintenant un autre exemple de mauvaise synchronisation labiale. Donc, comme je vous l'ai dit plus tôt, si votre bouche bouge trop, comme dans cette vidéo et dans mon précédent clip original, vous obtiendrez un mauvais résultat de synchronisation labiale. Combien de fois dois-je dire la même chose ? Tu écoutes au moins ? Donc, si vous voulez essayer correctement la synchronisation labiale, si vous voulez appliquer la synchronisation labiale à votre vidéo, appliquez la synchronisation labiale à cette vidéo qui contient le moins de mouvements des lèvres. Donc, si vous faites trop de mouvements de la bouche dans votre vidéo, vous obtiendrez de mauvais résultats avec la synchronisation labiale. Voici donc comment vous pouvez utiliser la synchronisation labiale, en utilisant Cling AI. 29. Éléments: Bon retour, tout le monde. Maintenant, si nous passons aux vidéos sur l'IA, nous avons une nouvelle fonctionnalité appelée éléments. Et ce qu'il fait, vous pouvez sélectionner plusieurs images, et il générera des vidéos avec cette référence d'image. Prenons par exemple un exemple de base. Nous avons maintenant ces deux images. Maintenant, comme vous pouvez le voir, à partir d'ici, vous pouvez supprimer votre image, vous pouvez télécharger une autre image, et ici vous pouvez sélectionner votre élément. Dans mon exemple, je souhaite sélectionner cette image entière, mais par exemple, si vous souhaitez sélectionner uniquement ce camion, vous pouvez également sélectionner ce camion. Vous pouvez cliquer sur Confirmer, puis générer vos vidéos à l'aide de ces éléments. Je vais maintenant sélectionner l'intégralité de mon image. Pour ma deuxième image, j'ai sélectionné cette voiture Ferrari. Nous allons donc maintenant faire une vidéo avec ces deux images. Je vais donc écrire un simple bal de comme une Ferrari dans un champ. La fonction d'élément ne fonctionnera donc qu' avec le modèle 1,6 ling. Si vous modifiez votre modèle en 1.5, vous ne pouvez pas vraiment générer cette vidéo d'éléments. Si vous changez cela en 1.0, nous avons le même problème. ne pouvons donc désormais générer ces vidéos d'éléments qu' en utilisant le modèle 1.6. Ainsi, avec le mode professionnel sélectionné, nous pouvons générer cette vidéo. La vidéo est donc maintenant générée, et voici le résultat. Comme vous pouvez le constater, nous avons cette Ferrari dans un champ. Et si je mets cette vidéo en pause, si nous ouvrons l'image d'origine, comme vous pouvez le voir sur l'image d'origine, nous n'avons aucun nuage. Si nous ouvrons cette image, je veux que vous vous concentriez sur le motif des nuages. Et dans le clip généré, comme vous pouvez le voir, les gars, nous avons le même schéma de nuages ici dans le ciel. Et nous avons ce champ dans cette vidéo générée. J'espère donc que tu as compris l'idée. Voyons d'autres exemples pour mieux comprendre cette fonctionnalité de cet élément. Dans cet exemple, nous avons deux images. Nous avons cette image, un avion qui vole. C'est la référence. C'est l'élément, et nous en avons un autre. Nous avons un style vectoriel de personnage de moto au volant. Maintenant, j'ai tapé ce problème, un homme à vélo et un avion qui passait par là Avec le mode standard de 1,6, nous avons obtenu ce résultat. Faites passer l'avion et nous avons ce motocycliste Maintenant, pour générer ce type d'images, vous pouvez utiliser les effets d'image Labstt de Google Et comme vous pouvez le voir, les gars, si nous allons sur le Labstt Google, s'agit d'une donnée instantanée utilisée pour générer cette image, et ceci est une invite à saisir l'image d'un motocycliste Maintenant, nous pouvons également ajouter un objet et nous pouvons tout faire avec cet objet. Donc, par exemple, ici, comme vous pouvez le voir, les gars, c' est mon image originale. Ici, nous avons cet objet, un homme SWOT, de l' IITA, qui se balance autour d'un SWOT en mode Comme vous pouvez le voir, les gars, dans cette vidéo générée, je fais pivoter cet objet Nous avons un autre exemple. Cette fois, il a également copié l'arrière-plan de cet objet. Dans cet exemple, j'ai trois éléments. Ce que nous avons, c'est l'image d'une voiture nulle part. Nous avons ce contexte et nous avons ce sujet. Et avec cette invite, avec mode professionnel 1.6, c'est ce que nous avons obtenu. Il génère donc parfois ce type de vidéos. Donc, dans ma génération suivante, j'ai saisi cette invite et avec le mode standard, c'est ce que nous avons obtenu Maintenant, je supprime un élément de ces éléments, et dans ma prochaine génération, c'est ce que j'ai obtenu avec ces deux éléments uniquement. Dans cet exemple, je n'ai que deux éléments un homme assis sur un canapé, et nous avons cette voiture, et je tape cette personne assise sur un canapé à côté d'une voiture abandonnée dans le désert. Et même avec le mode standard, comme vous pouvez le constater, les gars, le résultat est incroyable. Donc, si je vous ai montré cet exemple, c'est parce qu' avec une simple invite, nous pouvons également générer des résultats étonnants en utilisant les éléments. Donc, pour résoudre vos problèmes, vous pouvez générer plus de vidéos. Vous pouvez modifier vos mots clés ici et là. Maintenant, nous avons un autre exemple avec la même image, et cette fois nous avons cette voiture différente, et nous avons obtenu ce résultat. Carte sur le terrain. Vérifiez ceci. Et cette fois, si on passe en mode recadrage, comme vous pouvez le voir, les gars, je n'ai sélectionné que cette partie de cette image. C'est l'élément que j'ai sélectionné. Maintenant, dans cet exemple, nous avons deux personnages d'anime, et j'ai saisi les deux en mode combat avec le mode standard, c'est ce que nous avons obtenu Maintenant, parfois, lorsque vous générez des vidéos à l'aide d'un élément, il faut que la référence note exactement cet élément. Je vais prendre la référence de cet élément et cela va générer une toute nouvelle vidéo. Donc, avec ces mêmes images, j'ai lié les deux combats l' un à l'autre. Avec le mode standard, c'est ce que nous avons obtenu. Comme vous pouvez le constater, il prend la référence de ces deux personnages et génère une toute nouvelle vidéo. Encore une fois, avec ces deux éléments, si j'ouvre mon image, c'est mon élément numéro un, et c'est mon élément numéro deux. Lorsque vous êtes assis sur une chaise, une grosse explosion se produit en arrière-plan. Voici donc les données du bal utilisées pour générer cette vidéo. Même avec le tableau debout, le résultat est assez convaincant. Vérifiez ceci. C'est insensé. Donc, une autre raison pour laquelle vous n'obtenez pas le résultat souhaité est que vous utilisez les mauvaises images. Donc, dans cet exemple, comme vous pouvez le voir, les gars, j'ai ces images, et nous avons ces deux enfants qui font du vélo, et c'est un cycle étrange que j'ai généré à l'aide de Labs Google. C'est le problème, et c'est le résultat étrange. C'est un autre exemple, et c'est le dernier exemple. Assurez-vous donc d'avoir sélectionné les bonnes images. Nous avons maintenant cet exemple. Dans cet exemple, j' ai utilisé l'élément for, qui est le plus grand élément que vous pouvez utiliser pour générer des vidéos à l'aide de la fonctionnalité des éléments. Nous avons donc d'abord cette personne. Nous avons ce micro. Nous avons cette voiture, et nous l'avons en arrière-plan. Maintenant, pour ce qui est de mon message, j'ai tapé Boy tenant un micro, assis dans une voiture garée dans le désert, caméra zoomant lentement Avec le mode standard, c'est ce que nous avons obtenu. Maintenant, avec un mode professionnel avec exactement les mêmes instructions et les mêmes éléments, voici le résultat Nous avons maintenant un autre exemple de l'élément le plus utilisé. Nous avons donc ces quatre éléments, et j'ai mis l' accent sur la caméra sur un cycliste, puis sur l'avion, puis sur la position debout de l'homme Avec le mode standard, c'est ce que nous avons obtenu. Nous avons un avion cycliste. Et ici, nous avons un homme, celui-ci. Maintenant, pour ma prochaine vidéo générée, je supprime l'arrière-plan, et voici ce que nous avons obtenu. Nous avons obtenu un résultat étrange. Donc, si nous obtenons cet effet de morphing dans la vidéo, c'est parce que j' utilise le mode standard C'est pourquoi nous avons cet effet de morphing. Maintenant, dans ma prochaine vidéo générée, je corrige mon mot clé de la semaine ici et là, et cette fois, cela a légèrement amélioré le résultat Nous avons l'avion Standing Man, et nous avons le cycliste. Vous pouvez donc également créer une scène dynamique comme celle-ci avec les éléments. Maintenant, dans cet exemple, j'ai également effacé à nouveau l' arrière-plan. Et avec cette invite en mode standard, voici ce que nous avons obtenu. Maintenant, pour une raison ou une autre, j'ai utilisé le mode professionnel avec exactement la même invite et le même élément, et c'est ce que nous avons obtenu. Il vient de générer cette toute nouvelle vidéo. Il prend la référence de mes éléments, ne génère pas de vidéo avec exactement le même élément, mais prend la référence de mon élément. Vous pouvez également améliorer votre vidéo générée. Comme vous pouvez le voir ici avec exactement le même message avec ces images contenant cet élément, si vous passez à l'invite négative, j'ai saisi le mot clé que je ne veux pas apparaître dans ma vidéo générée défiguration, distorsion Nous examinons le résultat original, c'est mon clip original, et j'ai régénéré ce clip en utilisant l'invite négative, et voici ce que nous avons obtenu Comme vous pouvez le constater, le résultat est beaucoup amélioré. Nous avons moins de distorsion, de défiguration et d'effet de morphing dans cette vidéo que dans Ceci est la vidéo originale et découvrez la distorsion et la défiguration de cette Et maintenant, regardez la dernière vidéo. Désormais, vous obtiendrez également un résultat différent si vous régénérez votre clip Comme vous pouvez le voir dans cet exemple, nous avons ce contexte. Nous avons la carte Ferrati et nous avons ce message. Avec le mode professionnel, nous avons obtenu ce résultat. Maintenant, avec le mode standard, il me suffit de supprimer mon mot clé ferratic d'ici, de placer ma voiture en premier, puis de placer mon arrière-plan en second. C'est ce que nous avons obtenu. Maintenant, dans cet exemple, je place à nouveau ma voiture en premier et je place mon arrière-plan second avec exactement le même message. C'est ce que nous avons obtenu. Donc, la raison pour laquelle je vous montre ceci est que si vous placez votre arrière-plan en premier, il copiera l'élément de votre arrière-plan et placera cet élément sur votre deuxième image, votre deuxième élément. Expérimentons cela afin que vous puissiez mieux comprendre de quoi je parle. Supprimons cette image. Supprimons également cette image. Et cette fois, je vais me concentrer sur mon élément. Enlevons ce tapis et cliquons sur Confirmer. Et nous avons la même image. Avec cette même invite avec le mode stand, créons cette vidéo. La vidéo est donc maintenant générée. Ceci est un aperçu, et comme je vous l'ai dit plus tôt, les gars, si vous placez votre arrière-plan en premier, puis votre voiture, nous aurons moins d'arrière-plan que dans l'exemple précédent. C'est l'exemple précédent, et comme vous pouvez le voir, les gars, nous avons l'arrière-plan en second. C'est pourquoi nous retrouvons tout cet élément de fond dans cette vidéo. Donc, si vous voulez que votre arrière-plan soit statique dans toute la vidéo, je vous recommande voulez que votre arrière-plan soit statique dans toute la vidéo, de le placer à la fin de vos éléments. Si vous avez quatre éléments, placez votre arrière-plan ici même dans le quatrième élément. Si vous avez deux images, que vous souhaitez avoir un arrière-plan, placez votre élément sur la seconde comme arrière-plan. Et si vous avez deux éléments, et si vous souhaitez placer un arrière-plan, placez votre élément dans le troisième emplacement d'élément. Maintenant, si nous allons dans les laboratoires, sur Google, voici les images que j'ai générées et que j'utilise dans la conférence sur les éléments. C'est ce que je demande pour cette image. Pour ce contexte, nous avons cette invite. Pour la voiture, nous avons ce message. Pour le fond de l'anime, nous avons cette invite. Pour l'arrière-plan du champ, nous avons cette invite. Pour l'image de la voiture, nous avons reçu cette invite. L'homme de l'anime, nous avons cette simple question. Nous avons cette invite et nous avons ce résultat. Nous avons cette image, et voici l'invite. Et pour cette image, je tape cette invite. Pour l'image finale, avec cette invite, voici ce que nous avons obtenu. Vous pouvez donc utiliser des laboratoires ou Google pour générer des images impressionnantes. Voici donc comment vous pouvez utiliser les éléments de Ling AI.