Transcription
1. INTRODUCTION: J'ai découvert le
pouvoir de Kling AI. Le principal outil de
génération vidéo qui transforme facilement du texte
et des images simples en vidéos
professionnelles captivantes Bonjour, tout le monde. Je m'
appelle Faizan Amjad Et dans ce cours,
vous apprendrez à générer des vidéos à partir de zéro en utilisant les fonctionnalités époustouflantes
de King AI, telles que génération de
texte en vidéo et
d'image en vidéo. Je vous guiderai à
chaque étape, de la génération d' images
hyperréalistes à leur
intégration fluide dans des vidéos À la fin de ce cours, vous serez
doté des compétences nécessaires pour produire du
contenu vidéo époustouflant sans effort Alors, qu'est-ce que tu attends ? Inscrivez-vous dès maintenant et libérez votre potentiel créatif
avec Kling AI.
2. Comment obtenir l'accès à l'IA Kling: Bienvenue Donc, pour
accéder à Cling AI, recherchez Cling AI, et vous devez ouvrir
ce lien cling ai.com Une fois que vous aurez cliqué sur le lien, vous
serez redirigé vers cette page. Il s'agit de l'interface
de cling.com. Ici, vous pouvez vous connecter gratuitement et vous obtiendrez 66
crédits par jour, et le crédit sera également réinitialisé
quotidiennement. Maintenant, je vais me
connecter gratuitement. Si vous avez un compte, vous pouvez ajouter votre e-mail et votre mot de passe. Mais si vous n'avez pas de
compte, inscrivez-vous gratuitement. Cliquez ici Cliquez maintenant
sur le bouton suivant. Accédez à votre e-mail et vous recevrez ce numéro
de vérification. Copiez et collez ce numéro ici et cliquez maintenant
sur ce bouton de connexion. Et maintenant, comme vous pouvez le voir, les gars, nous avons 66 crédits. Je vais maintenant vous
présenter l'interface de Cling AI. Ici, comme vous pouvez le voir, les gars, si vous souhaitez
générer des images AI, vous pouvez cliquer ici. Et si vous souhaitez
transformer ces images ou n'importe quelle image en vidéos,
vous pouvez cliquer ici. Vous pouvez également générer
vos vidéos AI, et il y aura bientôt un éditeur
vidéo dans
la fonctionnalité, alors assurez-vous de rester à l'affût. Ici, comme vous pouvez le voir, voici quelques exemples
créés avec Ling AI. Maintenant, si vous faites défiler l'écran vers
le bas comme vous pouvez le voir, voici quelques images et
vidéos d'IA créées avec Ling AI. L'utilisateur de ce site Web
a donc créé ces exemples. Vous pouvez donc également vous inspirer de ces images
et de ces vidéos. Vous pouvez cliquer sur n'importe quelle
image ou vidéo, et ici, comme vous pouvez le voir, voici le message
de cette image. Il s'agit du ratio d'image, et il s'agit d'une
image de référence, qui n'en est aucune. Cet utilisateur a donc créé cette image en utilisant tout dans l'invite
sans image de référence. Voici donc l'
interface de Ling AI.
3. Interface d'IA de Kling: Bon retour. Nous allons maintenant créer quelques images de base afin que vous puissiez
mieux comprendre Cling AI. Cliquez sur ces images d'IA. Vous serez redirigé
vers cette interface. Ici, vous pouvez
taper n'importe quelle invite. Vous pouvez générer n'importe quelle image. Vous pouvez également référencer
votre image si vous
souhaitez générer un résultat similaire
en fonction de votre référence. Hé, vous pouvez sélectionner
votre ratio hauteur/largeur, et ici vous pouvez
sélectionner le nombre de générations selon votre demande
spécifique. Votre résultat sera affiché dans cette section de ce site Web. Cling AI prend 0,20 crédit
pour générer une image. Nous générons quatre images, il faudra
donc 0,80 crédit Pour la vidéo, il
faudra dix crédits. Vous obtiendrez 66 crédits et ils
expireront dans 24 heures. Si, par exemple, vous utilisez
20 crédits sur ces 66, ils seront remis à
66 le jour suivant. Tapons maintenant une invite simple. Je vais donc taper un verre
d'eau sur le dessus d'une table. Maintenant, comme vous pouvez le voir, les gars, si je baisse le nombre de
générations, cela réduira également mes crédits. Nous allons donc générer
pour la génération, et sélectionnons
ce rapport hauteur/largeur. Maintenant, nous n'avons
aucune image de référence, alors cliquons sur générer. Maintenant, gardez cela à l'esprit, nous utilisons le compte gratuit, il faudra
donc un certain temps pour générer vos
images ou vidéos. Désormais, vous n'avez
plus à attendre votre génération, vous pouvez également saisir votre
prochaine invite. Maintenant, comme vous pouvez le voir, les gars, nous avons ces images, et ce sont des images époustouflantes. Vous pouvez maintenant taper n'importe quelle
invite et générer n'importe quelle image que
vous souhaitez générer. Maintenant, comme vous pouvez le voir, les gars, si je place ma souris sur une
image, nous avons trois options. L'un est amélioré
, disponible pour les
utilisateurs premium. Ne t'inquiète pas J'ai un compte premium, je vais
donc vous
montrer tout ce que possède ce site Web. Ici, comme vous pouvez le voir, nous pouvons utiliser cette image
comme référence, et ici, nous pouvons
donner vie à cette image. Je vais donc
sélectionner cette image. Donnez vie à cette image. Et comme vous pouvez le voir, les gars, il faudra dix crédits
pour générer cette image. Cliquez sur ce bouton de génération. Maintenant, comme je vous l'ai dit plus tôt, vous n'avez pas à rester assis
ici à attendre quelques minutes
ou peut-être des heures pour voir votre image se
convertir en vidéo. Vous pouvez générer la
vidéo suivante si vous le souhaitez. Donc, comme
vous pouvez le voir, les gars, si nous revenons
au tableau de bord, fermons celui-ci, nous cliquons
sur ces vidéos d'IA. Maintenant,
comme vous pouvez le voir, ce site Web
génère maintenant notre vidéo. Nous avons ici la première option, qui est le texte en vidéo. Donc, en gros, c'est
similaire aux images d'IA. Si je tiens ma souris ici, nous pouvons accéder aux images de l'IA. Nous pouvons taper n'importe quelle invite. C'est donc similaire
à la vidéo textuelle. Nous pouvons maintenant générer n'importe quelle vidéo si vous
souhaitez simplement taper une invite. Vous pouvez sélectionner cette invite. Par exemple, vous pouvez
sélectionner le moment de votre caméra Je vais
donc sélectionner « Jusqu'à » et maintenant,
générons cette vidéo. Comme vous pouvez le voir,
les gars, je peux générer plus d'une vidéo sans avoir à attendre. Ainsi, vous pouvez générer plusieurs
vidéos en même temps. Maintenant, je sais qu'il y a tellement de
fonctionnalités sur ce site Web. Alors ne paniquez pas. Ceci n'est qu'une introduction
au site Web. Je vais vous présenter
toutes les fonctionnalités de Cling AI, et nous créerons de
superbes images et vidéos à l'aide de cet outil d'IA. Nous avons donc le résultat. Cela a donc transformé mon image
en une magnifique vidéo. Maintenant, nous avons également cette vidéo. Nous générons cette vidéo
via cette invite. Il y a maintenant une énorme
différence entre le compte premium et le compte
gratuit de King AI. La première différence
est que vous ne pouvez pas utiliser Kling 1.5 si vous utilisez le compte
gratuit de Kling AI. La deuxième différence,
qui est très énorme, c'
est qu'il vous a fallu plus de temps
si vous utilisez le compte gratuit pour générer vos clips que le compte
premium. Alors, croyez-moi ou non, il m'a fallu deux jours pour
générer ce clip. Parfois, il génère
votre clip très rapidement et parfois il le
génère très lentement. À ce point qu'il n'a pas réussi
à générer votre résultat. Et une fois qu'il n'aura pas
généré votre résultat, il vous remboursera votre crédit. Donc, comme vous pouvez le voir, les gars, mon crédit est supérieur à 66. La
limite du compte gratuit est de
n'avoir que 66 crédits pendant 24 heures. Pourquoi n'ai-je pas
plus de 66 crédits ? Parce que j'ai tellement de générations
ratées, cela vous remboursera
vos crédits et cela ajoutera votre crédit à
vos crédits actuels. Vos crédits
expireront dans 24 heures Que vous utilisiez tous
ces crédits ou non, ils seront réinitialisés à 66 crédits. Il ne s'agit donc que d'une
introduction de base à Kling AI. J'ai un compte premium, nous allons
donc
approfondir cet outil et explorer son plein potentiel pour
générer les résultats souhaités. Je vous verrai donc lors
de la prochaine conférence.
4. Nouvelle interface de KlingAI: Bienvenue à tous.
L'interface adhésive a donc un peu changé. Si vous regardez les vidéos sur l'IA, si vous passez de l'image à la vidéo, comme vous pouvez le voir, les gars, avant cette mise à jour, nous avions
une fonctionnalité appelée end frame, et nous pouvons activer ou désactiver
cette fonctionnalité à partir d'ici. Mais dans la nouvelle mise à jour, nous n'avons pas cette fonctionnalité. Parce que si vous
téléchargez votre image, nous
avons
donc par défaut cette interface. Nous pouvons maintenant télécharger le cadre
final ici. Et si vous souhaitez remplacer le cadre en étoile par le cadre final, vous pouvez également le remplacer par
ce
symbole, en cliquant dessus. Il remplacera le
cadre de départ par le cadre de fin. Et si vous souhaitez remplacer le cadre de fin par
le cadre de départ, cliquez à nouveau
sur ce symbole. Il échangera votre cadre. Désormais, si vous ne souhaitez pas
générer de vidéo
du début à la fin, vous pouvez également utiliser l'image unique pour
générer vos vidéos AI. Maintenant, si vous vous souvenez, si vous passez de la version 1.0 à la version 1.5, Motion Brush sera désactivée et le moment de la caméra
sera également désactivé. Mais si vous sélectionnez votre mode
professionnel, le mouvement de la caméra est désormais activé, et nous avons également un pinceau de mouvement. Vous pouvez maintenant utiliser
le pinceau de mouvement et le moment de la caméra dans Cling
1.5 en mode professionnel. Nous avons également ce changement. Dans l'interface précédente, nous n'avions qu'un mode
professionnel, mais maintenant vous pouvez également
utiliser le mode standard, et le mode standard de
1,5 prendra 20 crédits. Et si vous changez le modèle en 1.0, il vous faudra dix crédits. Je pense donc que c'est
une mise à jour incroyable. Nous avons également une nouvelle fonctionnalité. Si vous accédez aux images AI, cette fonctionnalité s'appelle
AI virtual Tryon Vous pouvez donc essayer
des vêtements sur vous-même
ou sur n'importe quel modèle, et cela aura l'air réaliste. Il s'agit donc essentiellement de la
nouvelle interface de Kling AI.
5. Générer des images époustouflantes: Bon retour. Maintenant, tout d'abord, cliquez sur A et accédez aux images AI. Il existe deux manières de
générer votre image. La première consiste à rédiger votre invite. Dans le second cas, vous pouvez
référencer une image. Si vous souhaitez créer un
résultat similaire, vous pouvez
référencer une image pour créer votre résultat en
fonction de cette image. Maintenant, comme vous pouvez le voir, les gars, j'ai généré tellement d'images
incroyables dans cet outil parce que j'écris
plus que quelques mots pour obtenir des résultats
impressionnants. Maintenant, si vous utilisez
le compte premium, vous pouvez également améliorer
votre image. Ainsi, par exemple, si
vous cliquez ici, vous pouvez survoler votre souris, et nous avons une option
appelée améliorer Si je clique dessus, cela
améliorera mon image. Cela transformera cette image
en une meilleure définition. Maintenant, comme vous pouvez le voir, les gars, voici mon résultat. Voici le résultat précédent, et voici mon nouveau résultat. Vous pouvez également passer
votre souris ici. Si vous utilisez le compte
premium, vous pouvez également télécharger ce résultat
sans filigrane Dans un compte gratuit, vous
téléchargerez n'importe quelle
image de votre choix, mais vous aurez également un filigrane
avec cette image Il s'agit d'un compte premium sur lequel nous
n'avons aucun filigrane. Et si vous utilisez un compte gratuit, vous aurez un
filigrane comme celui-ci Maintenant, si vous voulez créer des résultats
impressionnants, vous
devez écrire
plus que quelques mots. Alors, comment peux-tu trouver tes mots ? Accédez à designer.miicrosoft.com,
connectez-vous, cliquez ici et vous devez sélectionner des images Nous pouvons maintenant fermer cet onglet. Maintenant, ce que vous devez
faire, c'est cliquer ici et
écrire votre message. Donc, par exemple, je
vais écrire. s'agit donc que d'un
simple gros plan
d'un hamburger dans un hôtel Il existe maintenant une option
appelée invite améliorée. Et ce qu'il fait, c'est que si je clique
sur cette invite améliorée, cela ajoute quelques mots pour rendre
cette invite impressionnante. Nous pouvons maintenant copier cette invite. Nous pouvons aller voir l'IA meurtrière. Collons cette invite, et nous pouvons sélectionner
notre résolution. Vous pouvez sélectionner votre ratio. Je vais donc sélectionner celui-ci. Vous pouvez sélectionner le nombre de générations que vous
souhaitez générer. Je vais en sélectionner quatre. Et maintenant, cliquons
sur ce bouton générer. Revenons maintenant à
Microsoft Designer et nous pouvons sélectionner n'importe quelle
résolution ici. Nous pouvons maintenant cliquer sur ce bouton de
génération et il générera ce résultat. Ce sont toutes les images que nous avons générées via
cette invite. Nous pouvons maintenant améliorer
et nous pouvons également référencer cette image si vous le souhaitez. Nous pouvons également donner vie à cette
image. Voici le résultat de Microsoft
Designer, et j'aime bien celui-ci.
Puis le ling AI. Donc, ce que nous pouvons faire, nous pouvons
simplement cliquer sur ce téléchargement, accéder à l'IA Ling. Nous pouvons cliquer sur A pour
référencer cette image. Maintenant, avant de
générer le résultat en fonction de l'
image de référence, il y a un curseur Nous avons zéro plus, et nous avons trois
plus, ici, nous avons moins et nous
avons trois moins. C'est donc la force
de votre référence. Si vous placez votre force
à zéro,
le résultat sera généré fonction de cette image exacte. Si vous placez votre curseur sur
le côté positif, il ajoutera simplement
quelque chose à votre image Et si vous placez votre
curseur sur le côté négatif, alors il faudra
quelque chose de By Je vais
vous montrer tous les résultats fonction de ce curseur Donc, tout d'abord,
essayons cette position zéro. Et d'ailleurs, si vous faites
référence à une image, il faudra 0,40 crédit
pour référencer cette image Donc, sans aucune référence, vous pouvez générer quatre
images en 0,80 crédits, mais nous avons une référence, donc maintenant nous avons 1,20 Maintenant, cliquez sur ce bouton de
génération pour générer les résultats
en fonction de la référence. Nous n'avons pas à attendre que
le résultat soit généré. Nous pouvons prendre ce curseur
du côté positif et maintenant, cliquons sur
ce bouton en forme de volet Maintenant, je peux faire passer le curseur
à la taille trois plus, et maintenant nous pouvons générer des résultats Maintenant, placez le curseur
sur le signe négatif. Nous avons maintenant ces résultats. La force est fixée à zéro
et les résultats sont étonnants. Maintenant, si vous définissez
votre force plus, cela modifiera quelque chose
sur vos images. Comme vous pouvez le constater,
les gars, si vous passez à l'image d'origine avec
l'intensité réglée à zéro, n'avez rien
dans nos assiettes, mais si vous optez pour
l'intensité positive, comme vous pouvez le voir, les gars, cela
ajoute simplement quelque chose à votre image. Nous avons donc ajouté ces
morceaux de pain à notre hamburger. Et si nous passons au plus, cela ajoutera quelque chose de
plus à votre image. Dans le triple inconvénient,
il ignore simplement ma chambre d'hôtel et place
mon hamburger sur une table. Et dans un seul inconvénient, cela reprendra juste
quelque chose de l'image. Donc, pour expliquer cette force, si vous
la définissez à zéro, cela générera exactement le même résultat
selon votre référence. Mais si vous placez votre
curseur sur le côté positif,
il ajoutera quelque chose
à votre image Si vous placez votre curseur
sur le côté gauche, il reprendra
quelque chose de votre image Il y a un autre exemple que
je voudrais vous expliquer. Donc, avec l'invite, j'ai
généré ces résultats. Avec l'image de référence dont l'intensité est réglée sur le signe plus, comme vous pouvez le voir, les gars, il suffit de
modifier quelque chose dans mon image. Lorsque la force est réglée à zéro, cela génère
exactement les mêmes résultats. Et avec cette intensité
réglée sur le triple moins, il prend tout ce qui se
trouve dans mon image et génère simplement le
vecteur de l'image. Maintenant, en revoyant mes résultats, j'ai remarqué quelque chose Avec cette intensité nulle, vous pouvez voir que nous
avons des images normales, mais avec cette intensité
réglée sur le plus, vérifiez la taille
du hamburger. La taille du hamburger augmente
également. Il s'agit donc d'une taille normale. Il s'agit d'une taille plus, et il s'agit de trois tailles plus. Vérifiez la taille du hamburger. La taille du hamburger augmente
également. Maintenant, si nous passons
aux trois points négatifs, la taille du
hamburger diminue. Et ce n'est qu'
un résultat négatif. Maintenant, dans mon deuxième exemple, je remarque également cela. Avec cette référence,
mes objectifs sont minces, mais avec une force
fixée à trois points positifs, comme vous pouvez le voir, les gars, mon
or grossit. Avec une intensité nulle,
nous avons une taille normale, et avec un sinus négatif, elle devient de plus en plus petite. Et cela supprime également quelque chose
de ma référence, et cela génère simplement cette image. Vous devez donc également en
tenir compte lorsque vous utilisez la force de référence
pour générer votre image. C'est ainsi que vous pouvez générer des images
AI dans cling.com. Au revoir. Je vous verrai lors de
ma prochaine conférence.
6. Essais virtuels de l'IA: Bon retour, tout le monde. Donc, si vous passez aux images de l'IA, nous avons une nouvelle fonctionnalité
appelée AI virtual Tryon Vous pouvez donc essayer n'importe quelle chemise, n'importe quel stylo, vous pouvez essayer n'importe quel
vêtement sur vous-même. Ou si vous faites défiler l'écran vers le bas, vous pouvez également utiliser ce modèle. Et comme vous pouvez le voir, les gars, voici quelques exemples. Nous avons donc deux options. Nous avons d'abord des vêtements individuels, puis des vêtements
multiples. Donc, tout d'abord, je vais
sélectionner cette chemise. Maintenant, si vous faites défiler l'écran vers le bas, je vais utiliser ce modèle. Et maintenant générons. Générons une sortie. Et comme vous pouvez le voir, les gars, il est en train de générer ce
vêtement sur ce modèle. Et comme vous pouvez le voir,
les gars, juste comme ça, nous avons ce vêtement pour cette
personne ou pour ce modèle. Essayons maintenant
plusieurs vêtements. Donc, tout d'abord, je
vais télécharger le haut, donc je vais
sélectionner cette chemise. Il n'est pas nécessaire de retirer le
fond du vêtement. Vous pouvez également utiliser cette image. Maintenant, je peux utiliser ce stylo noir. Maintenant, si vous faites défiler l'écran vers le bas, nous avons une autre option appelée personnalisée. Maintenant, je vais
télécharger mon image ici. Maintenant, l'image est
téléchargée avec succès. Créons ce
vêtement sur moi-même. Et comme vous pouvez le voir, les gars, nous avons cette chemise
et cette peinture ici. Maintenant, si vous passez votre
bouche sur votre image, nous avons une autre
option appelée Expand Maintenant, nous pouvons cliquer dessus et
nous pouvons passer à un ratio. Je vais donc
sélectionner ce ratio et cliquer immédiatement sur Agrandir
l'image. De cette façon, vous pouvez changer
vos images verticales horizontales, vous pouvez changer votre image en n'importe quel
autre rapport hauteur/largeur. Et comme vous pouvez le voir, c'est le résultat final. Je vais maintenant
vous montrer un autre exemple. Donc, comme vous pouvez le voir dans le guide, c'est le bas
et c'est le haut. Je vais cliquer
sur ce rechargement. Et si vous avez une
image comme celle-ci, vous pouvez sélectionner cette image, elle
recadrera automatiquement l'image et
sélectionnera le bas. Et maintenant, si je retélécharge
et sélectionne cette image, elle
sélectionnera automatiquement le haut, comme vous pouvez le voir Maintenant, nous allons cliquer sur le bouton Générer. Et comme vous pouvez le constater, les gars, nous avons ce résultat. Maintenant, si vous ouvrez cette image, téléchargez-la. Ouvrons cette image. Et si nous zoomons comme
vous pouvez le voir, les gars, nous avons un petit
problème ici. Si vous avez une barbe
dans le modèle, vous obtiendrez ce
genre de résultat. Mais changeons de
modèle pour le recommander. Et cette fois, sélectionnons ce modèle et cliquons
sur générer. Maintenant, comme vous pouvez le voir, les gars, nous avons ce résultat. Maintenant, je vais sélectionner une
autre image cette fois, et maintenant cliquons sur Générer pour augmenter
le nombre de sorties. Et comme vous pouvez le voir, les gars, nous avons
maintenant ces sorties. Les résultats sont aujourd'hui
assez étonnants. Élargissons-le encore à une forme verticale
et c'est parti. C'est ainsi que nous pouvons essayer
différents vêtements sur le modèle ou
sur vous-même à l' aide la
fonction AI Virtual Tryon de Kling AI
7. KOLORS 1.5 vs KOLORS 1.0: Reviens. Nous avons donc obtenu un nouveau modèle de génération d'images
appelé close 1.5. Avant ce modèle, nous en avions une version 1.0. Maintenant, je vais comparer les deux avec
la même invite. Maintenant, ces exemples concernent la version
1.5, et comme vous pouvez le voir, les gars, avec cette invite, nous avons obtenu ces résultats. Maintenant, avec exactement la même invite, avec 1.0, nous avons obtenu ces résultats. Voyons maintenant un autre exemple. Avec cette invite, c'est 1.0, ce qui n'est pas mal, mais avec 1.5, nous avons obtenu ces résultats. Maintenant, la principale différence
entre 1,5 et 1,0 est que 1,5 génère des images
réalistes. autre côté, la version 1.0
génère des images impressionnantes, mais
elles semblent avoir été générées par l'IA. Et comme vous pouvez le constater, cela
ressemble à une image artificielle. Mais si vous regardez
le résultat de 1,5, il me semble plus
réaliste que 1,0. Nous avons un autre exemple. Avec cette invite,
cela donne 1,5 résultat. Et comme vous pouvez le
voir, les résultats sont plutôt bons. Maintenant, avec la même
invite, nous avons 1.0. Et comme je vous l'ai dit plus tôt, c'est plus artificiel
pour moi que 1,5, car 1,5 ressemble plus à une image
réaliste que 1,0. Nous avons maintenant un autre exemple. Avec cette invite, nous avons obtenu ce
résultat qui n'est pas mal. Mais avec exactement le
même message avec 1.5, nous avons obtenu ces résultats. Maintenant, dites-moi
laquelle est bonne, celle-ci ou celle-ci. De toute évidence,
1,5 semble plutôt bien. Maintenant, avec cette invite, nous avons obtenu ces résultats et avec exactement la même
invite avec la version 1.0, nous avons obtenu ce résultat. Avec cette invite, avec 1.0, nous avons obtenu ces résultats
et avec 1.5, nous avons obtenu ces résultats. Maintenant, dans cet exemple, la
version 1.0 est magnifique, mais dans la version 1.5, dont je vous ai
parlé plus tôt, l'image davantage axée sur le réalisme
que sur l'imagination. 1.5 pousse l'image vers l'
imagination, mais 1.5 génère une image
réaliste. Maintenant, si vous tapez quelque chose comme l'imagination
pure dans cette invite, comme vous pouvez le voir, les gars, c'est un scénario purement imaginaire. Avec 1.0, nous avons obtenu ces résultats. Avec 1,5, nous avons obtenu ces résultats. Dans cet exemple, la
version 1.0 génère des résultats impressionnants,
car il s'agit d'une pure imagination
par rapport au monde réel. Mais 1,5 essaie de générer des résultats
réalistes, mais je pense que 1,0 gagne celui-ci. Maintenant, avec ce bal de fin d'année, c'est un scénario
purement imaginaire. Il s'agit de 1,0 déserts et 1,5
avec exactement le
même message, c'est vrai que nous avons obtenu Et 1.5 bat juste 1.0
parce que, comme vous pouvez le voir, les gars, cela ressemble à
une image réaliste D'un autre côté, la version 1.0
ressemble à un concept art. Nous avons maintenant un autre exemple. Avec cette invite, il
s'agit de 1,0 résultat, et avec exactement la même
invite, il s'agit de 1,5. Et comme vous pouvez le voir les gars, 1.5
génère une image réaliste. Maintenant, j'essaie de générer des images
vectorielles en utilisant cette invite, et comme vous pouvez le voir
avec la version 1.0, nous avons obtenu ces résultats,
ce qui n'est pas mal. Mais avec 1,5, il génère
ce que je lui demande de générer. Parce que je copie cette invite, je vole ce bal de fin d'année au
designer domicrosoft.com AzkacGuide c'est le résultat de
Microsoft Designer. J'ai copié cette invite et je l'ai reproduite ici, et nous avons obtenu ce résultat. Maintenant, avec cette invite, avec la version 1.0, nous avons obtenu ces résultats. Et si nous passons à 1,5, nous obtenons ces résultats, qui sont impressionnants car si vous regardez la combinaison de
couleurs, et si vous regardez le graphique, 1,5 génère
une image réaliste puis 1,0. Comme vous pouvez le voir,
le graphique n'est pas
aligné correctement en 1.0 , mais en 1.5, nous avons obtenu un graphique réaliste et un chiffre réaliste, et nous avons une bonne
combinaison de couleurs, puis 1.0. J'essaie maintenant de générer
des images animées en trois dimensions. Avec cette invite. Nous avons obtenu 1,0 résultat. Comme vous pouvez le voir, ce sont des résultats effrayants car je lui demande de générer une animation en
trois dimensions. Mais avec 1.5, nous avons obtenu ce beau résultat car 1.5 génère une image dualiste C'est pourquoi nous obtenons
ce que nous lui demandons de générer. Si vous essayez de générer
des images de style anime, vous pouvez également le faire. Avec cette invite, comme
vous pouvez le voir dans le guide, cela donne 1,5 résultat, ce qui est très impressionnant. Dans cet exemple, 1.5 ressemble une image de style anime fini, mais 1.0 ressemble à un concept art. Nous avons un autre exemple. Avec cette invite, avec 1.0, nous avons obtenu ces résultats, et avec exactement la même
invite, nous avons 1,5 résultat. Maintenant, avec cette invite,
nous avons un résultat de 1,0, et avec exactement la même invite, nous avons un résultat de 1,5. Et 1,5 pour générer ce que
je lui demande de générer, je le demande à un homme
portant un masque de ski assis sur
un canapé et devant un grand feu
en arrière-plan. Et c'est ce que génère la version 1.5, et la version 1.0 génère simplement ces types d'images
que je n'aime vraiment pas. Une autre chose que je remarque
dans la version 1.5 par rapport à la version 1.0, c'est que la version 1.0 contient un certain adoucissement artificiel
dans ces images, mais que la version 1.5 génère des images sans
aucun adoucissement artificiel Comme vous pouvez le voir, les gars, cela
ressemble à une caméra de cinéma. Et si nous passons au résultat 1.0, ces images présentent un certain adoucissement
artificiel Nous avons maintenant un autre
exemple de 1.5. Je viens de modifier quelques mots clés dans mon invite et nous avons obtenu
ce résultat de 1,5. Maintenant, comme vous pouvez le voir dans la version 1.0, encore une fois, nous avons un adoucissement
artificiel Il semblerait que j'améliore
une image de faible qualité, et voici le résultat
final Avec ce bal de fin d'année, nous
avons 1,5 résultat, et avec exactement le même bal de fin d'
année, nous avons un résultat de 1,0 résultat. Parlons maintenant
des images vectorielles. Avec 1,5 avec ce bal de fin d'année, nous avons obtenu ces résultats. Avec 1.0, nous avons obtenu ces résultats, qui sont impressionnants par rapport à 1,5. La combinaison de couleurs est bonne. En arrière-plan, la couleur rouge est bonne, mais d'un autre côté, 1,5 couleur rouge me
tue les yeux. Maintenant, avec cette simple invite, 1.0 génère ces images, ce qui est un peu artificiel, comme je vous l'ai dit plus tôt. Mais 1.5 écrase également 1.0
dans cet exemple. Maintenant, avec cette invite, nous
avons 1,0 résultat et avec exactement
la même invite, nous avons 1,5 résultat. Nous avons maintenant un autre exemple. Avec cette invite,
j'ai un résultat 1.0. Avec exactement le même message, nous avons un résultat de 1,5. Maintenant, 1.5 donne l'impression que je prends une photo de
cette scène avec mon appareil photo, en 1.0, mais en 1.0, nous avons l'impression
que cela est généré par l'
intelligence artificielle. Nous avons maintenant un autre exemple. Avec cette invite, nous avons un résultat de
1,0 et avec exactement
le même bal, nous avons un résultat de 1,5. Et comme vous pouvez le constater, 1.5, essayez de générer
une image réaliste autant que possible. Nous avons maintenant un autre exemple. C'est l'invite, et il
s'agit du résultat 1.0. Et avec exactement le même bal de fin d'année, c'est un résultat de 1,5. Et comme vous pouvez le voir, les gars, 1.5 image réaliste
générale, puis 1.0. Nous avons maintenant un autre exemple. W 1.0, c'est l'invite. Ce sont des résultats de 1,0, et avec exactement le même bal, nous avons un résultat de 1,5. Avec ce simple POE de
promo d'une voiture, c'est 1,5, et avec exactement
le même prom, c'est 1,0 résultat. Maintenant, encore une fois, nous avons également une image
vectorielle. Avec cette invite,
nous avons un résultat de 1,0, mais avec exactement la même invite, nous avons un résultat de 1,5. 1.5 essaie donc de générer un vecteur
réaliste, mais la version 1.0 contient quelques détails. Donc, lorsque nous essayons de comparer ces
deux modèles, si vous souhaitez générer des images
vectorielles, je pense que 1.0 est
la meilleure option. Mais si vous voulez
simplifier votre vecteur, essayez d'utiliser 1.5 car 1.5 simplifie vos images vectorielles
autant que possible, mais 1.0 contient des détails
dans ses images vectorielles. Maintenant, recréons cette
image à l'aide de l'IA de liens Je vais
donc
copier cette invite Voici le résultat de
ce bal de fin d'année utilisant
Microsoft Designer. Maintenant, collons cette invite
et générons une image. Maintenant, une autre
différence majeure entre 1.0 et 1.5 est que si vous voulez
générer une image en utilisant 1.0, il vous faudra 0,20 crédits Mais si vous passez
votre modèle à 1,5, il vous faudra un
crédit par image. Donc, si vous souhaitez
générer quatre images, il vous faudra vos quatre crédits. Maintenant, cliquons pour
générer avec 1.5. Maintenant, c'est un résultat de
1.0 avec cette invite, et les résultats ne sont pas mauvais. Je suis vraiment impressionné par le résultat de ce
bal de fin d'année en version 1.0. Maintenant, avec 1.5 avec
exactement le même message, nous avons obtenu ces résultats. qui n'est pas mal non plus, mais pour une raison ou une autre, j'aime bien le résultat 1.0. Maintenant, si nous revenons à la source d'origine,
en revanche, je pense que 1.5 essaie de
générer une image réaliste en
fonction de cette invite. Mais la version 1.0 génère sa propre
version de cette invite. Si vous souhaitez
enregistrer vos crédits, je vous recommande
d'utiliser une image, générer les résultats des deux modèles, puis si vous aimez
un résultat de modèle, utiliser ce modèle et d'en générer
quatre si vous le souhaitez. Parce que si vous
générez quatre images, vous obtiendrez des variations
différentes. Si nous comparons ces quatre images, nous avons de petites différences
entre ces images. Il en va
de même pour ce modèle 1.5. Nous avons de petits changements
dans quatre images. Et dans le résultat final, il a simplement changé
l'angle de la caméra.
8. Générer des images avec une cohérence du sujet: Bon retour, tout le monde. Donc, si vous changez
de modèle de Cro 1.0 à 1.5, si vous passez du texte à l'image, comme vous
pouvez le voir, les filles, nous avons une nouvelle fonctionnalité pour la version 1.5
appelée Upload a reference. Désormais, lorsque vous
téléchargez une référence, vous devez sélectionner un sujet. Nous avons maintenant cette
image comme référence. Donc, pour créer
ce genre d'images, il faut aller sur AbstodGoogle Maintenant, une fois que vous accédez à
Labs point Google, vous devez sélectionner les effets
d'image. Et maintenant, si nous ouvrons
mon image d'origine, c'est le bal que
j'utilise pour générer
cette image à l'aide des effets d'image
Google de Labs. Maintenant, une fois que nous avons téléchargé la
référence, nous avons trois options. Soit nous pouvons sélectionner
l'ensemble du sujet, nous pouvons sélectionner uniquement
la référence de phase soit nous pouvons sélectionner
l'image entière. Maintenant, vous devez
garder cela à l'esprit, si vous sélectionnez l'image entière, le modèle
passera de 1,5 à 1,0. Supposons donc que nous sélectionnions
l'image entière. Je vais confirmer,
et comme vous pouvez le voir, les gars, nous avons maintenant le cloud 1.0. Et maintenant, si nous passons la souris sur ce petit
aperçu de cette image, si nous cliquons ici,
c'est l'édition. Si nous sélectionnons la phase du sujet, et maintenant si je clique sur
ce bouton confirmé, comme vous pouvez le voir, le modèle
passe désormais de 1.0 à 1.5. Si nous passons à la version 1.0, la référence continuera. Maintenant, téléchargeons à nouveau la
référence. Et maintenant, cette fois, je
vais sélectionner la phase. Cliquons sur Confirmer. Maintenant, une fois que vous avez sélectionné la
phase de votre référence, vous pouvez taper tout ce que
vous voulez que ce sujet fasse. Maintenant, si vous modifiez votre force de
référence à 100, il copiera le trait exact du visage de votre sujet. Modifions-le donc à 50 %. Maintenant, je vais taper
un garçon assis sur un canapé dans un studio et
taper un éclairage spectaculaire. Et comme vous pouvez le constater, il faudra deux crédits pour chaque image
avec la référence. Et si vous supprimez la référence, il faudra un
crédit par image. Nous avons donc quatre variantes. C'est pourquoi nous avons
huit crédits. Et maintenant, générons
ces images. Maintenant, avec exactement la même invite, passons à la modification, et maintenant je vais
sélectionner l'ensemble de mon sujet. Donc, si vous sélectionnez la phase, elle copiera votre
visage comme référence. Mais si vous sélectionnez le sujet, il copiera
l'intégralité de votre sujet. Cela inclut ses
vêtements, etc. Cliquons sur Confirmer, puis sur Générer. Comme vous pouvez le voir, les gars,
nous avons obtenu ces résultats. Maintenant, comme vous pouvez le constater, nous avons obtenu
ce beau résultat. Et si nous revenons à la source d'origine,
comme vous pouvez le voir, les gars, nous avons cette phase
comme référence, et ce sont de nouvelles images entièrement générées par l'
IA. Maintenant, nous pouvons également
modifier la référence, ainsi que la référence de phase du
sujet. Maintenant, comme vous pouvez le voir, les gars, il a copié ma
référence de phase à 45 % de cette image. Si nous le changeons à 100 %, il copiera cette phase exacte. Alors faisons-le. Revenons aux résultats de la phase
sélectionnée, et je vais changer
ma référence à 100 %. Maintenant, avec exactement la même
invite, passons à l'édition. Et cette fois, je vais
sélectionner l'image entière. Et maintenant, nous avons le modèle 1.0. Et avec la référence, il
faudra 0,30 crédit par image. Nous allons donc générer
quatre variantes. Les images sont donc maintenant générées. Avec la référence de phase, une force de
100 %, c'est
ce que nous avons également obtenu avec la référence au
sujet. Maintenant, avec seulement la référence de
phase, comme vous pouvez le voir, les gars,
nous avons obtenu le résultat. Et comme je vous l'ai dit tout à l'heure, il ne fera que copier votre visage. C'est pourquoi nous avons des coiffures
différentes dans
ces quatre variantes. Nous avons maintenant la référence complète de
l'image, et c'est ce que
nous avons obtenu avec la version 1.0. Maintenant, sélectionnons
un autre sujet. Je vais supprimer
ce sujet. Maintenant, si nous revenons aux laboratoires pointillons les effets Google Image
avec cette invite, j'ai généré cette image. Alors téléchargeons cette image. Maintenant, je vais
sélectionner ce sujet, cliquer sur Confirmer et avec exactement
la même invite. Avec une référence de phase à 100 %, nous pouvons générer
laissons cet aspect apparaître. Et maintenant, générons-les pour
les faire varier. Maintenant, comme vous pouvez le voir, les gars, nous avons ces images. Changeons également la
référence du sujet à 100 %, et je vais changer
ma référence de rythme à 60 % parce que je veux IA prenne la référence
du sujet, pas trop, et je veux que
le sujet soit habillé à 100 %. C'est pourquoi je change
mon fil à 100 %. Nous allons générer ces résultats. Maintenant, comme vous pouvez le voir, les gars, nous avons obtenu ces résultats. Nous entrons maintenant dans une
phase différente parce que je tape un garçon et que nous changeons le mot clé hommes et maintenant générons. Comme vous pouvez le voir, les gars, dans les nouveaux résultats générés, il faut 100 %
de référence à mon sujet. Comme vous pouvez le voir, si nous revenons à la
référence de la source d'origine, passons à la modification. Nous avons cette veste, et si nous examinons les images
générées, nous avons la même veste. Et maintenant, comme vous pouvez le voir, les gars, nous avons obtenu ces résultats. La raison pour laquelle cette fonctionnalité d'image de
référence est importante est que vous pouvez désormais générer des images
cohérentes, et avec ces images cohérentes, vous pouvez également transformer vos
images en vidéos. Donc, si nous revenons au correcteur
animé, comme vous pouvez le voir, les gars, nous pouvons
emmener ce garçon n'importe où On peut donc aussi taper assis sur un canapé ou assis dans une voiture. Maintenant, avec cette invite, il va générer des images, et maintenant nous pouvons transformer ces
images en vidéos. De cette façon, vous pouvez créer des vidéos
cohérentes avec la
même cohérence de sujet. Alors maintenant, comme vous pouvez le constater, nous avons le même sujet dans une voiture. Nous pouvons remplacer le fait de rester assis
dans une voiture par celui de conduire une voiture. Ajoutons une virgule avec un éclairage
spectaculaire.
Tournons à droite. Et maintenant, comme vous pouvez le constater,
nous avons obtenu ces résultats. Nous pouvons donc maintenant créer des vidéos de personnages
cohérentes en utilisant cette
fonctionnalité de référence de Ling AI.
9. Introduction de base pour générer des vidéos par IA: Bon retour. Vous devez
maintenant cliquer ici et accéder aux vidéos pour
générer
des clips à l'aide de Cling AI. Il existe maintenant plusieurs façons de
générer des clips à l'aide de Cling AI. Le premier est un SMS vers une vidéo. Dans le texte converti en vidéo,
vous devez saisir une invite
afin de générer un clip. Alors maintenant, faisons-le.
Maintenant, j'ai cette invite. Vous pouvez copier exactement cette même
invite dans les paramètres. Comme vous pouvez le voir, les gars, il
faut glisser. Nous avons de la créativité et
de la pertinence. Maintenant, dans le mode,
nous avons le mode standard et le mode professionnel. Si vous utilisez
le compte gratuit, vous n'aurez accès qu'
au mode standard. Voyons maintenant le
mode standard pour cet exemple. Nous avons maintenant une durée de
cinq à dix secondes. Nous avons le format d'image
que vous pouvez également modifier. Vous pouvez sélectionner le rapport
hauteur/largeur de votre choix. Nous avons maintenant le nombre
de générations. À l'heure actuelle, je suis passé à
une génération vidéo. Maintenant, en dessous du rapport hauteur/largeur, nous avons les moments de caméra. Si vous cliquez ici, nous avons
tellement de moments devant la caméra. Maintenant, en dessous des moments de caméra,
nous avons un bal négatif. Alors, qu'est-ce que le bal de fin d'année négatif ? Une promotion négative est
quelque chose que vous ne voulez pas voir apparaître dans votre vidéo
générée. Par exemple, si vous ne voulez pas que votre vidéo soit
floue,
saisissez-le simplement Si vous ne voulez pas de distorsion ou quelque chose comme une violation du
cadre, vous pouvez taper ce
mot ici et cela ne le générera pas dans votre vidéo. Maintenant, cliquons sur
ce bouton de génération. J'utilise donc également Microsoft
Designer pour cette invite. Comme vous pouvez le voir, les gars,
c'est le résultat de cette invite dans
Microsoft Designer. Maintenant, je pense
que nous aurons un résultat
différent de celui-ci, car il a été généré
dans Microsoft Designer, et nous utilisons le King Eye,
qui sont deux types d'outils totalement
différents. Pendant la génération de la vidéo
sur le côté droit, nous aurons les résultats
des vidéos générées. Comme vous pouvez le voir, les gars, je
génère tellement de vidéos. Vous pouvez cliquer ici pour transformer vos vidéos
en texte en vidéo. Ce sont donc tous
mes textos en vidéo. Vous cliquez ici, vous pouvez changer
cela en image en vidéo. Ce sont toutes mes images
transformées en vidéos AI, et vous pouvez également
sélectionner toutes les vidéos, toutes les vidéos seront affichées sur le côté droit. Vous pouvez également cliquer ici. Vous pouvez également passer de la
vue simple à la vue détaillée. Maintenant, en vue détaillée,
comme vous pouvez le voir, voici la nouvelle vidéo que je génère à l'aide de cet outil. Ce sont toutes mes anciennes vidéos. Dans la vue détaillée, vous aurez l'image de référence sur
le bal de fin d'année. Si vous en avez une,
dans cet exemple, j'ai l'image de référence, donc ce sont toutes mes images de
référence. Il affichera également
la version que vous avez utilisée pour générer cette vidéo. Par exemple, pour celui-ci, j'utilise Kling 1.0. Si je fais défiler
certaines vidéos vers le bas, j'utilise Kling 1.5, comme dans cet exemple.
Changeons cela. Vous pouvez également cliquer sur A pour sélectionner vidéo
ou une image
que vous pouvez télécharger. Vous pouvez également supprimer cette
vidéo ou cette image. Vous pouvez également le mettre dans vos favoris, ou vous pouvez cliquer à nouveau pour le
supprimer de vos favoris. Maintenant, cliquons à nouveau dessus. La vidéo est maintenant générée. Voyons le résultat. Et il est totalement
différent du concepteur Microsoft, comme je l'ai dit plus tôt. Voici donc comment vous pouvez
générer un clip en
utilisant une invite de conversion de texte en vidéo
à l'aide d'ing AI. Dans la prochaine conférence, nous verrons
quelle est la différence entre le mode standard
et le mode professionnel.
10. Générer du texte impressionnant en vidéo: Reviens.
Copions maintenant cette invite. J'ai utilisé Microsoft
Designer pour améliorer mon invite, et j'ai obtenu ces résultats. Passons maintenant au King
AI et collons cette invite. Maintenant, pour cette vidéo, sélectionnons le mode
en mode standard, et je ne veux
modifier aucun paramètre Et maintenant, cliquons sur
le bouton Générer. Pendant la génération de cette vidéo, nous pouvons sélectionner le mode
professionnel. D'ailleurs, si vous
utilisez le compte premium, l'utilisation du mode
professionnel vous coûtera 35 crédits. Nous pouvons maintenant générer ce bal de fin d'année, les vidéos sont
donc générées. Il s'agit donc du mode vidéo
standard. Ça a l'air plutôt bien. Et il s'agit d'un mode professionnel. Comme tu peux le voir, mec, il
y a une énorme différence. Il n'y a aucune violation du cadre. Il n'y a rien de
mal dans cette vidéo. On dirait une vraie
vidéo de la vie réelle. Maintenant, changeons le
clignotant de 1,0 à 1,5. Désormais, lorsque vous sélectionnez 1,5, le moment de la caméra
disparaît. Et nous ne pouvons pas passer du mode
professionnel au mode standard. Alors maintenant, générons. Il y a maintenant une énorme différence entre le mode professionnel
et le mode standard. Le mode professionnel restera cohérent et
générera votre vidéo. Il n'y a rien de mal. Il n'y a aucune
violation de cadre dans ce clip. Mais le mode standard génère
simplement votre clip, peu importe ce que vous demandez, et il
restera incohérent. Comme vous pouvez le constater, les gars, il y a quelque chose qui enfreint
le cadre au premier plan,
et il y a aussi quelque chose d'
étrange qui apparaît dans
la montagne, des points ou des
anneaux Donc, si vous souhaitez générer des résultats en
haute définition, utilisez un mode professionnel, mais vous devez passer
à la version pro. Au fait, si vous revisitez vos vidéos
générées et que
vous souhaitez voir le mode
que j'utilise et paramètres que j'utilise pour
générer
ce clip, vous pouvez également le visionner Par exemple, si je
sélectionne cette vidéo. Comme vous pouvez le voir, les gars, j'ai
changé le mode en mode standard. Mais si je sélectionne cette vidéo, elle passe automatiquement
en mode profession, car
c' est le mode que j'ai sélectionné lorsque
j'ai généré cette vidéo. Non seulement cela, si vous
sélectionnez une commande de caméra, elle apparaîtra ici. Si vous modifiez le rapport hauteur/largeur, la
longueur, etc., cela
apparaîtra sur le côté gauche Maintenant que la vidéo est régénérée, voici le résultat J'aime bien celui-ci parce qu'il génère
ce que j'ai demandé. Pour le mode professionnel, je crois que j'aime bien celui-ci, mais la nouvelle version
est plus
belle et
plus belle que les précédentes. Maintenant, si je
régénère également cette vidéo, nous obtiendrons un résultat différent Alors pourquoi ne pas le faire ? Maintenant, si vous n'obtenez pas
le résultat souhaité, régénérez votre résultat Ainsi, dans cet exemple, nous obtenons un résultat différent et
meilleur que le précédent. Cette vidéo que nous avons générée en utilisant un
mais cinq n'est pas mal. Mais la nouvelle vidéo est plus
belle
que la précédente. Nous avons maintenant le résultat vidéo
régénéré en utilisant le mode 1.0 Perfection. Si vous souhaitez générer des vidéos, vous
devez essayer la version 1.0 en mode
professionnel
et la version 1.5 en mode perf Comme vous obtiendrez des résultats
différents, vous pouvez choisir la vidéo que
vous souhaitez utiliser
dans vos projets. Je peux utiliser toutes ces
vidéos sauf le tableau standard
car le mode standard n'
est pas utile. Vous pouvez l'utiliser dans vos vidéos
YouTube, mais cela n'est pas utile car
nous avons des vidéos incohérentes, alors que le mode Pfession 1.5 est un bien meilleur moyen de
générer des vidéos
11. Créativité et pertinence: Bon retour. Je
vais maintenant vous montrer quelle est la différence entre
créativité et pertinence. Donc, pour cet exemple, j'utilise cette invite et je
génère ces quatre résultats. Ensuite, j'utilise cette image
comme référence. Je génère ensuite
ces quatre résultats. Maintenant, cliquons ici pour
donner vie à cette image. Fermons cet onglet. Maintenant, si nous restons
ici au centre, cela générera simplement
une vidéo normale, traire, de verser
ce chocolat Passons à
la créativité et générons. Encore une fois, je vais changer mon curseur vers la
droite en fonction de la pertinence Et maintenant, cliquons
sur ce bouton Gnute. Les résultats sont maintenant générés. Nous avons ici le résultat de
la créativité. Et voici le résultat de
pertinence. Donc,
comme vous pouvez le constater, dans la créativité, les gars, il s'agit simplement d'ajouter
quelque chose en soi. Alors que pour ce qui est de la pertinence, il suffit
de s'en tenir au sujet et de générer ce que
nous lui demandons de générer. Et si nous ne modifiions
tout simplement pas le curseur en fonction de l'
extrême pertinence ou de l'extrême créativité ? Faisons passer le curseur
à environ 0,35 de créativité. Et cette fois, je vais
sélectionner le mode standard, et maintenant
générons ce clip. Passons maintenant au curseur à environ sept points de pertinence
et générons le clip Maintenant, changeons le
ling 1.0 en 1.5. Passons maintenant au
curseur « créativité ». Et encore une fois, changez le curseur en fonction de la pertinence et
maintenant générons Nous sommes donc en train de générer les
quatre vidéos en même temps. Les résultats sont donc maintenant générés. Donc, si nous changeons simplement la
diapositive un peu vers la gauche pour laisser libre cours à la créativité,
nous obtenons le résultat. Et si on change un
peu la
diapositive sur le côté droit en fonction de la pertinence,
on obtient ce résultat. Maintenant, je sais que ces deux
résultats semblent similaires, mais il y a une énorme différence. Donc, pour ce qui est de la pertinence,
tenez-vous-en au sujet. Il s'agit de rassembler le lait de ce côté,
où, grâce à la créativité,
comme vous pouvez le constater,
les gars, le lait
se répand
sur où, grâce à la créativité,
comme vous pouvez le constater,
les gars, cette portion, pas simplement sur ce côté. En ce qui concerne la question, comme
vous pouvez le constater,
les gars, le lait est maintenant
récolté de ce côté. Passons maintenant au résultat à
l' extrême créativité
et à la pertinence de 1.5. C'est l'extrême
créativité, 1.5. Les résultats ne sont pas mauvais. Voyons maintenant le résultat
du dilemme. Maintenant, si nous passons la diapositive
à 0,3 pour que la créativité soit de 0,3, je pense que nous
obtiendrons un meilleur résultat que celui-ci. Alors maintenant, générons le clip. Pendant la génération de la vidéo, prenons un
autre exemple. Donc, dans cet exemple,
j'utilise cette invite. J'utilise la version 1.5 et je change mon
curseur pour une créativité extrême. Nous avons donc ce résultat. Et dans l'exemple suivant, je change mon curseur pour qu'il soit
extrêmement pertinent en utilisant 1.5, et nous avons obtenu le résultat Et si nous ne
changeons pas du tout le curseur, nous avons ce résultat Et dans cet exemple, j'utilise simplement une image. Sans changer le curseur, nous avons obtenu ce résultat Maintenant, les résultats
sont générés. Si vous faites preuve d'un
peu de créativité, vous obtiendrez des résultats
intéressants. Et j'utilise le
mode standard pour celui-ci, pas le mode professionnel. Et j'utilise la dernière version 1.5. La créativité est réglée sur 0,3, et c'est le
pire résultat que nous ayons jamais obtenu
avec cette image. Donc, mes derniers mots, n'utilisez pas ce curseur au-dessus de
0,65 et en dessous jusqu'à Si vous souhaitez générer
quelque chose d'intéressant, n'
appuyez pas sur ce curseur à l'extrême gauche
ou à l'extrême droite Et c'est là toute la différence entre créativité
et pertinence.
12. Mouvement de la caméra par IA: Bon retour. Maintenant,
allez dans Microsoft Designer, et je veux créer une publicité pour
le chocolat. Je vais donc écrire une
publicité sur le chocolat dans un hôtel. Nous pouvons maintenant améliorer l'invite. Je pense que cette invite est bonne. Copions cette invite. Accédez à Kling AI, et nous pouvons coller cette invite. Maintenant, si nous faisons défiler la page vers le bas, vous pouvez voir le guide indiquant que le
moment de la caméra disparaît. Donc, pour utiliser le moment de la caméra, nous devons remplacer le
Kling 1.5 par le Kling 1.0. Nous avons maintenant ce contrôle du moment par la
caméra. Si nous cliquons ici,
vous pouvez voir que nous avons différents types de moments
devant la caméra. Si nous faisons défiler la page vers le bas, nous
avons également un master shot. Vous pouvez sélectionner cette option et vous obtiendrez différents moments de
caméra. Je vais maintenant expliquer
chaque mouvement de caméra. Donc, tout d'abord, nous
avons l'horizontale. Maintenant, nous pouvons changer le curseur et nous obtiendrons une position
horizontale différente Si je change cela
du côté gauche, j'obtiens un moment horizontal du centre vers le côté gauche, et si je le change du côté droit, nous
aurons un moment de
caméra du centre vers le côté droit. Au lieu de vous expliquer,
je vais vous montrer. Donc, tout d'abord, sélectionnons l'horizontale et
changeons-la sur le côté gauche. Dans cette invite,
nous avons donc une publicité pour le chocolat,
et dans la publicité, l'appareil photo changera
la position position horizontale
du centre vers le
côté gauche à l'horizontale. Maintenant, sélectionnons 1.0, changeons le moteur professionnel et générons le clip. Maintenant que la vidéo est générée,
voici le résultat. Comme vous pouvez le voir,
les gars, dans cette vidéo, la caméra change
de position sur le
côté horizontal gauche. Que nous avons défini. Maintenant, nous pouvons changer le moment de la
caméra très facilement. Vous devez simplement
modifier le curseur
à l' endroit où vous souhaitez
régler le moment de votre caméra Essayons donc le moment de
zoom arrière avec la caméra. Maintenant, j'ai généré
différents moments de caméra. Voici donc le Zoom in extreme
Zoom in camera moment. Et voici le plan 3.4. Il s'agit d'une inclinaison de cinq et ce
rôle extrême de moins dix. Comme vous le remarquez, les gars,
les vidéos que nous avons
générées à l'aide ces moments de caméra
sont incohérentes. Tous les clips
sont donc incohérents. Il se passe quelque chose dans la vidéo en arrière-plan, au premier plan pendant que vous
utilisez la caméra à certains moments Il existe un
moment de caméra subtil que vous pouvez utiliser et vous éviterez ainsi
cette infraction. Mais si vous utilisez des
moments de caméra extrêmes, comme ceux que nous utilisons dans
Zoomin , et si vous utilisez des moments extrêmes de
moins dix à l'horizontale, vous risquez d'être victime d'une infraction extrême Réinitialisons maintenant
le moment de la caméra. Générons la vidéo simple. Je vais maintenant
copier cette invite. Voici les résultats
de cette invite. Passons maintenant à la vidéo. Collons cette invite. Tout d'abord, générons
sans aucun moment de caméra. Donc, sans aucun
moment devant la caméra, voici le résultat. Et comme tu peux le voir, mec, la vidéo est cohérente. n'y a aucune bizarrerie dans
la vidéo, et il s'agit d'une vidéo à trois personnages en
D
sans aucun moment devant la caméra Mais comme vous pouvez le voir, les résultats sont assez étonnants. Donc, pour cette vidéo, nous avons la même invite nous utilisons en trois caractères D, et j'utilise la prise de vue principale, je me déplace vers la gauche et je zoome. Et voici le résultat. Comme vous pouvez le voir, le
résultat est incohérent. Il y a une certaine bizarrerie dans
le cliché. Nous avons un autre exemple, master shot, move
forward et zoom up. n'y a pas beaucoup de
détails dans la vidéo, c'est pourquoi nous avons
ce résultat fluide. Et nous avons un autre
exemple de prise de vue principale, déplacement vers la droite et de zoom avant. Encore une fois, incohérence
dans la vidéo. Je ne pense donc pas qu'à l'heure
actuelle, nous puissions générer des résultats cohérents
en utilisant les moments de la caméra. Si vous souhaitez expérimenter
avec le moment de la caméra, vous pouvez également le faire. Avec la version gratuite,
vous pouvez simplement sélectionner votre mode standard et utiliser n'importe quel moment de la caméra. Et je ne pense pas
que vous perdrez un mérite supplémentaire
en utilisant le moment de la caméra. Mais si vous souhaitez obtenir un résultat
cohérent, je
vous recommande de ne pas
utiliser de moment de caméra,
car pour le moment , le
moment de la caméra n'est pas utilisable.
13. Invite négative: Bon retour. Maintenant, dans cet outil, nous avons une autre option étonnante
appelée invite négative. Donc, si vous ne voulez
rien voir dans votre vidéo, tapez
simplement ce mot,
et elle sera générée sans ce
que vous tapez ici. Donc, par exemple, dans cette vidéo, comme vous pouvez le voir, les gars, nous
avons cette étrange distorsion. Dans cet exemple, je saisis une violation et un flou de mouvement que je ne
veux pas voir dans ma vidéo, et voici le résultat Comme tu peux le voir, mon gars, il
n'y a aucune distorsion dans notre vidéo. Nous avons un autre exemple où
je tape simplement infraction. Nous avons donc cette
transition en douceur entre deux cadres. Alors que si je diffuse cette vidéo, nous avons
une étrange infraction. Comme celui-ci. Dans cet exemple également, je tape simplement infraction
et nous obtenons un résultat de transition fluide. D'ailleurs, si vous
utilisez le mode standard, vous pouvez également obtenir
des résultats étonnants. Comme celui-ci, j'utilise mon mode standard et je
sélectionne ce master shot. Et je ne fais que taper « défiguration », motion flou Et voici le résultat. Il y a une petite
infraction, mais pas beaucoup. Nous avons ce résultat également, et nous avons également celui-ci. Nous en avons
un autre. Pour celui-ci, j'utilise le mode standard, et nous avons obtenu ce résultat. Comme vous pouvez le voir, les gars, le
personnage ferme les yeux,
et il y a une distorsion dans le
court métrage Donc, pour éviter cette distorsion, je tape simplement distorsion
dans le message négatif. Et comme vous pouvez le constater, les gars, nous avons
maintenant un résultat fluide. Et d'ailleurs, j'utilise
le mode standard, pas le mode professionnel. Comme vous pouvez le voir, les
dix crédits apparaissent dans le générateur. Donc, en
tapant un message négatif, tout ce que vous ne
voulez pas voir dans votre vidéo, vous obtiendrez un résultat
époustouflant, même si vous utilisez
le mode standard. Et après avoir régénéré cela avec
ce moment devant la caméra, avec ces mots clés négatifs que je ne
veux pas voir dans ma vidéo, j'ai obtenu ce résultat, et il n'y a pratiquement aucune
violation dans la vidéo Voici donc comment vous pouvez
générer un résultat époustouflant tapant une
invite négative à l'aide de Ling AI.
14. Générer une image en vidéo IA: Bon retour. La prochaine façon de générer des vidéos
consiste donc à utiliser des images. Passez de l'image à la vidéo. Nous pouvons télécharger l'
image ou accéder aux images AI, sélectionner n'importe quelle image. Vous pouvez choisir n'importe quelle image, puis cliquer
ici pour donner vie. Vous pouvez générer une vidéo
à partir de votre image. Nous l'avons donc déjà fait, allons
donc le supprimer. Accédez maintenant au
Microsoft Designer. Vous pouvez taper n'importe quelle invite votre choix,
améliorer votre invite. Vous pouvez sélectionner votre taille
, la taille de
votre image. Vous pouvez sélectionner n'importe quelle taille. Et maintenant, cliquons sur
ce bouton Gen wait. Maintenant, nous avons le résultat. Vous pouvez sélectionner n'importe quelle
image de votre choix. Donc j'aime bien celui-ci. Vous pouvez cliquer ici pour télécharger
l'image de votre choix. Revenez maintenant à Cling Eye, passez de l'image à la vidéo, cliquez ici, sélectionnez
l'image que nous venons de télécharger. Cliquez sur ce bouton pour l'ouvrir. Vous pouvez également glisser-déposer votre
image. Maintenant, nous pouvons également
glisser-déposer cette image. Vous pouvez saisir n'importe quelle
invite facultative. Il existe également d'autres
paramètres. Et pour cet exemple, sélectionnons le mode standard. Nous pouvons maintenant cliquer pour
générer cette vidéo. La vidéo est donc maintenant générée. Voici le résultat. Vous pouvez donner vie à n'importe quelle image. Vous pouvez télécharger n'importe quelle image.
Ça n'a pas d'importance. Vous pouvez également télécharger vous-même. Maintenant, dans cet exemple,
je télécharge mon image, et voici le résultat. Non seulement cela, vous pouvez également
donner vie à votre ancienne photo. Vous pouvez également télécharger
votre photo manipulée. Comme vous pouvez le voir, les gars, je
fais moi-même appel à Photoshop sur cette photo, et je
lui donne vie également. Il s'agit également d'un autre exemple. Nous avons également cet exemple. Et nous avons également cet
exemple. Vous pouvez donc voir, les gars, c'est
incroyable de voir comment vous pouvez donner vie à votre
photo d'enfance. Non seulement cela, vous pouvez également
lui dire de faire ce que
vous voulez avec votre photo. Donc, dans cet exemple, je tape un couteau pour couper l'
orange en deux morceaux. Et voici le résultat. Le couteau est en train de couper l'orange. Et dans cet exemple, je lui demande de réaliser cette vidéo
dans un style cyberpunk Et c'est ce que j'ai obtenu. Plutôt incroyable, non ? Voici donc comment vous pouvez générer vos
vidéos à partir de l'image.
15. Cadre de début et de fin: Bon retour. Donc, dans Killing A, nous avons une autre
fonctionnalité étonnante appelée add ndframe. Si nous l'activons, vous pouvez voir que nous avons deux
fenêtres pour télécharger les images. Il s'agit du cadre de départ, et voici le cadre de fin. Accédez maintenant au
Microsoft Designer. Vous pouvez saisir cette invite. Vous pouvez générer ces images. Pour cet exemple, je vais
télécharger cette image. Vous devez maintenant
sélectionner votre image finale en fonction de la perspective de votre première image afin d'
obtenir des résultats époustouflants. Je pense donc que l'image numéro quatre est proche de l'image orange. Alors téléchargeons-le également. Nous pouvons maintenant cliquer ici pour
télécharger le cadre de départ. Maintenant, cliquons ici pour
télécharger le dernier cadre. Et pour cet exemple, je vais sélectionner
ce mode dix, et maintenant cliquons sur
ce bouton dix Wt. Nous avons donc le résultat. Comme vous pouvez le voir,
les gars, l'orange est train de se transformer en Apple. Maintenant, j'
étends également automatiquement cette vidéo, et maintenant nous avons cette vidéo
générée. Ensuite, je prolonge
cette vidéo de cinq secondes en écrasant rapidement des pommes au
marteau, et maintenant nous avons obtenu le résultat Vous pouvez également
lui demander de faire n'importe quoi. Dans cet exemple, je tape Apple transform
camera stay static. Ainsi, la caméra ne bougera pas, elle restera
en position. Il y a deux
points de vue différents. C'est pourquoi nous avons obtenu
ce résultat étrange. Mais si vous avez trouvé la
bonne perspective et que la
position de la table est la même, vous obtiendrez une superbe vidéo de
transformation. Dans cet exemple, je
tape simplement Apple transform. Avant d'avoir l'orange
au cadre de départ, nous avons
maintenant l'Apple
au cadre de départ et l'
orange au cadre de fin. Vous pouvez faire différents types de choses
folles en utilisant la fonction de fin de
cadre de cet outil. Permettez-moi de vous donner
quelques exemples. Nous avons donc cet exemple. C'est mon point de départ, et c'est mon point final. J'ai tapé le pro
car crash à travers le mur et je me suis coincé
entre deux murs Chaîne mon curseur à 0,8 de pertinence et utilise le
mode standard pour cette génération Dans cet exemple, j'utilise ce cadre et je
m'ajoute au venin, puis je l'utilise
à la fin du cadre Comme vous pouvez le voir, les gars, et
je tape « homme qui devient venin ». Je n'ai modifié aucun réglage, également
utilisé le mode standard pour
cette génération et j'ai obtenu ce résultat. Après avoir généré cette vidéo, j'améliore l'
éclairage de mon visage, j'
ajoute le visage venimeux
dans l'image de départ et j'ajoute mon visage
dans l'image de fin, et je tape un symbiote qui
révèle un homme Utilisez également le mode Dan pour celui-ci
, et j'ai obtenu
un résultat fou. Après cela, je régénère
à nouveau ma vidéo, et j'ai obtenu ce résultat fou Vous obtiendrez donc un résultat différent si vous vous régénérez J'utilise également mes deux photos
au même endroit, mais avec des angles différents j'utilise également le mode standard
pour cette génération, et c'est le résultat du mode
professionnel. Comme vous pouvez le voir, les gars, mon
visage est maintenant constant. Nous avons maintenant cet exemple. Si vous avez la même image
avec la même perspective, vous obtiendrez ce
genre de résultat. Comme vous pouvez le voir, je
tape camera stay static et nous obtenons
ce résultat fou. Désormais, si vous utilisez un mode
professionnel avec la fonction d'ajout d'une fin de cadre, vous obtiendrez un résultat cohérent. Il s'agit donc du mode vidéo
standard. Et comme vous pouvez le constater, les gars, mon visage n'est pas bien visible, et c'est le résultat
avec un mode professionnel. La vidéo restera cohérente. Nous avons également ces exemples. Et voici un autre exemple
de fonctionnalité de fin d'image de Kling AI associée à un mode
professionnel. Et nous avons un autre exemple avec un mode professionnel
avec ces deux images. Comme vous pouvez le voir, les
résultats semblent réalistes, et nous avons également cet
exemple. Avec le changement de cadre,
vous obtiendrez cet effet. Maintenant, vous n'avez pas besoin d'utiliser la première
et la dernière image dans cette combinaison où nous avons un
angle blanc et un angle rapproché, car vous obtiendrez
quelque chose comme ça. Vous obtiendrez un effet de
frange extrême comme celui-ci. Et nous avons également cet exemple. Et comme vous pouvez le voir, nous avons des lasers assez
étonnants. Même les personnes en arrière-plan
se
déplacent très correctement. Vous pouvez donc créer n'importe quoi
avec ce commutateur. Vous devez simplement
ajouter un cadre en étoile et un cadre final, et cela créera quelque chose
entre ces cadres.
16. Se transformer en Iron Man: Bon retour. Maintenant,
même si vous utilisez la version gratuite de Killing
AI avec le mode standard, vous pouvez créer
quelque chose comme ça. Ainsi, sans aucune compétence particulière, vous pouvez également créer des effets
visuels époustouflants. Et si vous utilisez un mode
professionnel, vous pourriez également obtenir des résultats
époustouflants. Je vais maintenant vous montrer comment nous
pouvons créer quelque chose comme ça. Tout d'abord, rendez-vous sur le
site photob.com. Il s'agit d'une
alternative gratuite à Photoshop. Nous avons deux captures d'écran
d'Ironman. Tout d'abord, décochez Autoselect, puis
cochez Transform Control En activant le contrôle de
transformation, vous obtiendrez le contrôle de transformation. Nous pouvons appuyer sur
Ctrl C pour copier cette couche. Accédez à l'Iron Man, appuyez sur
Control V pour vous coller. Nous pouvons maintenant convertir cette
couche en objet intelligent. Maintenant, appuyez sur Ctrl et maintenez-les enfoncés. Utilisez le
défilement de la souris pour effectuer un zoom arrière. Maintenant, nous pouvons redimensionner cette
personne ou le sujet,
appuyer sur Inter, et nous pouvons nouveau appuyer sur Ctrl
plus ou maintenir la touche enfoncée,
utiliser le défilement pour zoomer Maintenant, je vais
réduire mon opacité et maintenant nous pouvons aligner la phase sur la phase
Ironman Nous pouvons maintenant modifier l'
opacité à environ 100 %. Cliquez ici Et maintenant,
alignons cela ici. Je vais maintenant
activer le masque matriciel Cliquez ici, sélectionnez d'
abord votre couche, puis cliquez ici. Maintenant, nous pouvons cliquer dessus et
le maintenir et sélectionner
le bogue de peinture Nous pouvons également échanger la couleur, changer la couleur en noir, et maintenant cliquons sur sélectionnez
le masque et cliquez. Maintenant, nous pouvons sélectionner le
pinceau, appuyer sur le bouton droit de la souris. Nous pouvons changer la taille
du pinceau ici et
maintenant nous pouvons échanger la couleur. Alors, cliquez ici. Nous
avons maintenant la couleur blanche. Nous pouvons donc à nouveau
utiliser Control et t, maintenez-les enfoncés, utilisez le
défilement pour zoomer. Sélectionnez le masque matriciel
et nous pouvons maintenant peindre. Appuyez sur Kontozi pour annuler. Cliquez avec le bouton droit de la souris, et nous pouvons
réduire la taille du pinceau. Et maintenant je peux me brosser les dents ici. Vous devez donc vous brosser les dents avec soin. À l'intérieur du masque I did man. Maintenant, c'est terminé. Nous pouvons sélectionner l'outil de déplacement, appuyer sur la
commande ou sur Zoom arrière. Maintenant, nous avons presque terminé. Maintenant, je vais cliquer ici et ajouter
ce calque de réglage, cliquer avec le bouton
droit sur le calque de
réglage et créer un masque de découpage Cela n'affectera donc que la
phase, pas le tout. abord, je vais
augmenter mon contraste et
diminuer ma luminosité. Nous pouvons l'activer et le désactiver. Masquons cette couche
pour obtenir la bonne couleur. Baissons un peu
la luminosité. Je vais également ajouter
une couleur sélective. Maintenant, si vous ne créez pas
ce masque d'éclipse, si nous sélectionnons
la couleur neutre, cela affectera l'ensemble de l'image Comme vous pouvez le voir, les gars,
cela affecte maintenant l'ensemble
de l'image Et si je le remplace par un masque
de découpage, cela n'affectera que le calque qui se trouve en dessous de ce calque Nous pouvons maintenant réinitialiser cette
couche et faire correspondre la couleur à celle de l'Iron Man. Maintenant, je pense que c'est terminé. Mettons-le à environ. Maintenant, c'est terminé. Maintenant, la
dernière chose à faire est de cliquer avec le bouton droit de la souris sur
le visage de la personne, accéder à l'option Fusion, mais
pas d'ombre intérieure Passez en mode fusion, changez le mode de fusion en mode normal, cliquez ici et changez
la couleur en noir. Nous pouvons maintenant augmenter la
taille, augmenter l'opacité. Abaissons un
peu le passé. Maintenant, c'est terminé. Maintenant, allez à cette
capture d'écran, cliquez ici, appuyez sur Ctrl C pour la copier
et appuyez sur
Ctrl V. Maintenant, nous pouvons placer cette capture d'écran sous
toutes les couches. Nous pouvons maintenant sélectionner
toute cette couche, sélectionner cette couche, appuyer sur Shift et sélectionner la première couche. Il sélectionnera donc
toutes les couches. Cliquez avec le bouton droit de la souris et
convertissez-le en objet intelligent. Sélectionnez-le, cliquez avec le bouton droit de la souris et convertissez-le
également en objet intelligent. Maintenant, nous pouvons cliquer ici et nous pouvons également appuyer sur
Ctrl et sélectionner celui-ci. Cliquez avec le bouton droit de la souris,
convertissez-le en objet intelligent. Maintenant, nous pouvons passer au filtre, au bruit, ajouter du bruit. Je vais donc ajouter 5 % de bruit. Peut-être changer cela à 3 %. Maintenant, cliquez à nouveau ici sur
le filtre, accédez à la netteté et
sélectionnez la netteté intelligente Cliquez sur OK. Et maintenant, c'est terminé. Vous pouvez également ajuster les couleurs de vos
photos si vous le souhaitez. Je vais donc simplement ajouter quelque chose de vert et ajouter
quelque chose comme Merchant. Et si nous l'activons et le
désactivons, vous pouvez voir, les gars, que
nous avons un
étalonnage des couleurs qui nous
aidera à faire correspondre le
visage à la scène Nous pouvons maintenant cliquer
ici sur le fichier, accéder à l'export et
enregistrer ce fichier au format JPEC Nous pouvons changer la qualité à 100% et maintenant cliquer
sur le bouton Enregistrer. Sélectionnez maintenant cette
couche, double-cliquez. Nous pouvons désactiver cette couche. Maintenant que nous avons cette couche, nous pouvons appuyer sur la touche Ctrl pour l'enregistrer et nous avons maintenant
cette version de mise à jour. Nous pouvons maintenant accéder au fichier
et l'enregistrer au format JPA. Donc, la raison pour laquelle j'ajoute
cette capture d'écran en dessous cette capture d'écran est d'en
faire un objet intelligent en une seule couche. Nous pouvons donc attribuer un grade de
couleur et ajouter un effet au-dessus de cette couche. Cela affectera toutes les couches situées
sous les couches principales. Et maintenant, allez sur le lien AI, nous pouvons supprimer ces images, et nous pouvons télécharger
les nouvelles images. Maintenant, vous pouvez également utiliser le
mode standard si vous le
souhaitez et nous pouvons cliquer
sur le bouton Créer. Les vidéos sont maintenant générées. Maintenant, si je prends ceci
comme première image et comme dernière image, avec le mode standard,
voici le résultat. Et si nous définissons cette première image et que nous la définissons comme dernière image, nous obtenons également ce résultat avec
le mode standard. J'ai donc lu et lu
cette vidéo en mode professionnel et
nous avons obtenu ce résultat incroyable. Cela semble plus réaliste que
les autres vidéos générées. En utilisant cette technique, je
me suis également créé comme un venin Maintenant, avec l'aide de l'IA, vous pouvez vous transformer en n'importe quel super héros sans
aucune compétence particulière
17. Pinceau à mouvement: Bon retour. Nous
parlons maintenant du motion brush, et cette fonctionnalité
change la donne pour le secteur de la
génération vidéo par IA. Tout d'abord, nous devons
télécharger notre image. Maintenant, une fois que vous avez téléchargé votre image, vous devez passer de la version 1.5 à version 1.0 car cette fonctionnalité n'
est pas disponible
dans la version 1.5 pour le moment. Il faut maintenant cliquer ici. Et comme vous pouvez le voir, les gars,
nous avons ce guide simple. Alors laissez-moi vous montrer
comment cela fonctionne. Tout d'abord, nous avons ce pinceau. Nous pouvons dessiner quelque chose, nous
pouvons dessiner tout ce que vous voulez déplacer. Et
nous avons une gomme Si vous voulez effacer votre pinceau, par
exemple, si je
dessine cette pierre, et si je veux effacer mon pinceau, je dois sélectionner la gomme, puis je dois
retirer la pierre Je peux également augmenter la
taille du pinceau. Nous avons maintenant la segmentation automatique. Donc en ce moment, comme vous pouvez le voir,
les gars, je suis juste en train de me brosser les dents Mais si je réinitialise, vous pouvez également réinitialiser la zone de
votre pinceau. Je peux
me sélectionner automatiquement en activant la segmentation
automatique. Maintenant, je vais également sélectionner
mes cheveux,
mes lunettes , mes pantalons et mes chaussures. Maintenant, je peux décocher cette case et je peux brosser les pièces
manquantes. Nous allons donc obtenir le
résultat précis. Maintenant, c'est terminé. Donc, sur le côté droit,
nous avons la piste, et c'est pour cette
zone, la zone verte. instant, je vais
sélectionner ma piste, et nous devons tracer la direction dans laquelle je
veux me déplacer. Je veux donc m'
orienter dans cette direction, non ? Supprimons ce pinceau et dessinons de ce côté. Maintenant, vous pouvez également supprimer votre
chemin, votre trace également. Vous devez cliquer ici sur la
croix pour supprimer votre chemin. Nous allons maintenant avoir différents domaines. Vous pouvez sélectionner plusieurs
zones à déplacer, mais pour le moment je n'ai que
moi-même sur cette photo, donc cela suffit. Maintenant, à la fin, nous avons
cette zone statique d'ajout. La zone statique ne bougera donc pas. Pour cela, je dois sélectionner tout ce que je ne veux pas déplacer
sur ma photo. Je pense que c'est suffisant. Maintenant, ici, comme
vous pouvez le voir, si vous sélectionnez quelque chose
que vous voulez déplacer, mais que vous le sélectionnez accidentellement en tant
que zone statique, vous pouvez également l'annuler. Comme vous pouvez le constater, cette
zone est désormais claire. Vous pouvez également le refaire. Ou vous pouvez
tout réinitialiser si vous le souhaitez. Maintenant, c'est terminé. Nous pouvons
confirmer et c'est terminé. Au fait, je vais
rouvrir le motion brush à nouveau. Par exemple, si vous
ne dessinez aucun glissement, si vous ne tracez aucun chemin et que vous cliquez sur le bouton de
confirmation, nous avons ajouté ce message, non dessiné, non jumelé. Les pinceaux animés n'auront aucun
effet sur l'envoi. Vous soumettez donc si
vous le confirmez, si vous soumettez cette zone de pinceau, cela n'affectera rien car vous n'avez pas tracé la direction. Donc, pour déplacer
quelque chose dans votre image, vous devez dessiner cet objet
et vous devez tracer un chemin. Si vous n'avez tracé aucun chemin, cela ne déplacera pas cet objet
, cette personne ou cette chose. Alors maintenant, confirmons. Et maintenant, utilisons le mode
standard pour cela et nous pouvons
générer cette vidéo. Et voici le résultat. Comme vous pouvez le voir, les gars, si nous
utilisons le mode professionnel, nous obtiendrons un résultat
constant. Pour le moment, ce n'est pas constant, mais ça a l'air bien. Désormais, nous n'avons plus besoin de
revenir en arrière et de cliquer sur la vidéo pour générer des
vidéos à partir de l'image. Nous pouvons également le supprimer. Ne vous inquiétez pas, cela ne
supprimera pas votre vidéo. Et maintenant, pour cet exemple, je vais cliquer
sur le pinceau de mouvement. Laissez-le donc d'abord analyser
votre image, et nous pouvons maintenant
activer la segmentation. Je peux choisir moi-même. Décochons. Maintenant, sélectionnons la piste et
dessinons un chemin ici. Je vais donc maintenant sélectionner la zone statique, activer la segmentation
automatique. Et c'est terminé.
Sélectionnons également cette personne. Maintenant, cliquez sur
Confirmer et générez. Nous avons donc maintenant cette vidéo. Parfois, cela génère quelque chose que vous ne vous
attendiez pas à ce qu'il génère. Ne vous inquiétez pas, je pense que
nous pouvons régler ce problème. Ainsi, pendant la génération
de cette vidéo, nous pouvons supprimer l'image. Nous pouvons télécharger une autre image. Et dans cet exemple, nous allons dessiner plusieurs objets
afin de les déplacer. Maintenant que l'image est téléchargée, cliquez sur le mouvement de dessin. Laissez-le analyser l'image. Nous pouvons activer la segmentation automatique, sélectionner l'idée numéro un. Nous pouvons dessiner ce gout, sélectionner la zone numéro
deux, sélectionner celle-ci. Maintenant, je vais
sélectionner la piste 2, et nous allons la déplacer vers cette
position, sélectionner la piste 1 et la déplacer vers
cette position. Nous devons maintenant dessiner l'
arrière-plan sous forme de zone statique, afin que l'arrière-plan ne bouge pas. Maintenant, c'est terminé. Nous pouvons
cliquer sur le bouton Confirmer, et nous allons générer ce clip. J'ai un
exemple pour vous, et je voudrais vous expliquer quelque chose. Laissez-le d'abord analyser l'image. Prenons par exemple la segmentation
automatique. Si vous cliquez sur l'arrière-plan, si vous dessinez l'arrière-plan
comme zone de mouvement, zone de moment, trajectoire
du moment, si vous sélectionnez la zone statique, vous ne pourrez pas dessiner l'arrière-plan comme
zone statique car nous dessinons l'arrière-plan comme trajectoire de mouvement.
Nous pouvons donc réinitialiser. Réinitialisons-le à nouveau. Et par exemple, si vous dessinez votre personnage
sous la forme d'un chemin statique, alors si, par exemple, dans
la zone numéro un je dois dessiner mon visage, alors je ne pourrai pas
dessiner mon visage car cette zone est désormais
définie sur la zone statique. Veillez donc à bien vous brosser
les dents. Et dans ce cas, par exemple, si je sélectionne cette partie, cette partie du personnage, tout l'
arrière-plan sera également sélectionné. Pour pouvoir dessiner cette zone, vous devez
sélectionner cette zone manuellement. Et si nous
cochons la segmentation automatique, si nous définissons l'
arrière-plan comme statique, il restera
le chemin du moment. Il ne considérera pas cela
comme une zone statique. Réinitialisons donc tout. Et dans ce clip, je veux déplacer une partie
de mon personnage, pas un personnage entier. Donc, ce que je vais
faire, c'est
sélectionner le bras de ce personnage. Dessinons ce bras sur son visage, sélectionnons la zone numéro deux, et je vais dessiner le
bras de ce personnage. Dessinons-le également Décochons
Dessinons également ce bras Maintenant, je vais bloquer
ça et c'est terminé. Laissons d'
abord l'arrière-plan décocher cette case Dessinons ceci.
Dessinons uniquement son visage. Et maintenant je pense que nous
tournons, nous pouvons sélectionner la zone statique, cliquer sur le bouton de confirmation et
générer ce clip. La vidéo est donc maintenant générée. Voici le résultat. Comme vous pouvez le voir, les gars, l'un
se déplace vers cette position, autre se déplace vers cette position lorsque nous avons activé le pinceau de mouvement. Maintenant, dans cet exemple, je trace un chemin qui devrait me
faire voler dans cette vidéo, mais au lieu de cela, nous avons obtenu ce résultat. Ce qui n'est pas mal. Et
dans l'exemple suivant, je trace une ligne en m'attendant à ce
qu'il me fasse asseoir, mais nous avons obtenu le résultat suivant. Maintenant, dans l'exemple suivant, j'ai trouvé une solution à ce problème. Donc, dans cet exemple,
je trace ce chemin, et maintenant je suis
debout dans la vidéo. Et dans cet exemple, je suis enfin assise. Alors maintenant, je vais vous montrer
comment fonctionne Motion Barrage. Donc, si on
regarde bien le chemin, comme vous pouvez le voir, les gars, je trace
un chemin entre mes jambes. L'IA
comprend donc maintenant que je lui
demande de m'obliger à m'asseoir. Maintenant, je vais parler
du problème avec l'
autre génération. Donc, si vous regardez bien, je dessine ma flèche
sur la zone de dessin C'est pourquoi nous avons obtenu ce résultat car l'IA est maintenant confuse Alors que, comme vous pouvez le voir, les gars, dans cette vidéo où
je suis assise, je dessine sur la zone statique. Et maintenant, dans cet exemple, nous avons obtenu le résultat suivant :
ce robot ne lève pas la main. Il n'augmente pas son efficacité. Donc, dans l'
exemple suivant, ce que j'ai fait, je dessine simplement cette flèche
et nous avons obtenu ce résultat. Vous devez donc dessiner un mouvement. Alors maintenant, dans cet exemple,
nous avons obtenu ce résultat. Et j'ai légèrement changé la
flèche. Comme vous pouvez le voir, les gars, maintenant je change un peu la
trajectoire de ma flèche, et nous avons obtenu ce résultat. J'ai également cet exemple. Comme vous pouvez le voir, les gars, si
nous ouvrons le pinceau de mouvement, je dessine
complètement ce personnage, et je trace un chemin. Je veux que ce personnage
passe à cette position. Et pour ce personnage, je ne dessine que les poinçons et
la tête de ce personnage, et j'ai défini l'
arrière-plan comme statique Si vous regardez bien,
ce personnage n'
est pas complètement
réglé sur cette statique, seuls ses coups de poing et
la tête sont maintenant dessinés, pas le personnage entier, et je trace le chemin où
je veux le déplacer. Et c'est le résultat
de ce dessin. Et voici un autre exemple
simple : si nous ouvrons le pinceau de mouvement, je dessine simplement ma voiture et
je dessine juste un chemin. Définissez l'arrière-plan comme statique. Nous avons un autre exemple
, celui du combat robotisé. Si nous ouvrons le pinceau, je dessine ce personnage, je veux le frapper, et en même temps, je veux que ce personnage se
penche un peu en arrière. Et pour ce personnage, je dessine ce poinçon. Je veux que ce personnage
percute ce personnage et qu'il se penche un
peu en arrière. Et nous avons obtenu ce résultat. Vous pouvez également dessiner
plusieurs zones, et vous obtiendrez
différents types de résultats. Il s'agit également d'un autre
exemple simple. Si nous ouvrons le pinceau de mouvement, je dessine ce caractère
de ce côté, dessine le bus et je déplace
le bus de ce côté, définis l'arrière-plan comme statique, et maintenant nous obtenons le résultat. Le robot ne bouge pas
parce que l'IA pense peut-être que je veux que le bus
écrase ce robot. Donc, à l'heure actuelle, l'IA
est également sensible. Nous avons également un autre
exemple de robot. Si je vous montre le pinceau de mouvement, nous avons
ici le pinceau de mouvement. Nous avons maintenant le résultat. Comme vous pouvez le voir, les
résultats sont époustouflants. Maintenant, si vous utilisez un mode
professionnel, vous obtiendrez un résultat précis. Dans cet exemple, je dessine le bras gauche de ce robot ainsi que le bras gauche
de ce robot, et je trace ce chemin. Définissez l'arrière-plan comme statique et cela génère ce résultat. Le résultat est désormais précis. Contrairement au mode standard, avec le même dessin, si je vous montre
le même dessin, je génère cette vidéo
avec le mode standard, et le personnage bouge également un peu et l'
arrière-plan bouge également. Mais en
mode professionnel, vous pouvez voir, les gars, qu'il ne s'agit précisément que de déplacer
la partie où j'ai dessiné. Donc, avec ce dessin, nous avons obtenu ce résultat avec
le mode professionnel. Comme vous pouvez le constater, les gars, tout est désormais cohérent
et avec le même dessin. Mais avec le mode standard, nous avons obtenu ce résultat. Vous pouvez désormais également déplacer
votre image modifiée. Comme vous pouvez le voir, les gars, je
fais des retouches moi-même en studio, et je dessine ce simple
pinceau à mouvements. Nous avons obtenu cet effet. Nous avons un autre exemple. Si je vous montre le pinceau de mouvement, c'est le pinceau de mouvement, et c'est le résultat
avec le mode professionnel. La
vidéo en mode professionnel a l'air bizarre car elle génère
ce que je lui demande. Comme vous pouvez le voir,
les gars, je lui demande de bouger le flash de bouche et
son bras aussi, et c'est fait
et ça a l'air bizarre Mais avec le même dessin
en mode standard, vous obtiendrez un résultat différent. Et c'est le résultat
avec le mode standard. Comme vous pouvez le voir, les gars, ça a fait bouger le bras et le
museau clignote également Le pinceau de mouvement est doté
d'un mode standard, il est plus réaliste et plus époustouflant que
le mode professionnel. Mais les vidéos seront incohérentes si vous
optez pour le mode standard. Mais avec le mode professionnel, vous devez être précis
avec vos pinceaux car il ne déplacera que la partie
où vous brossez la zone. Donc, si vous vous demandez comment j'ai créé les vidéos de
punching sur le plateau, voici l'invite et voici le résultat à l'aide du
Microsoft Designer Maintenant, dans cet exemple, je ne dessine que le flash du
pistolet et nous avons obtenu ce résultat. Laissez-moi vous montrer
le motion brush. Comme vous pouvez le voir, les gars,
tout n'est pas
figé sauf le visage et
le corps de cette personne. Ce que je veux dire, c'est que vous
devez être précis lorsque vous utilisez le mode
professionnel si vous utilisez le pinceau de mouvement, si vous voulez obtenir
le bon mouvement. Et voici comment vous pouvez
utiliser le pinceau de mouvement.
18. Vidéos de synchronisation des lèvres avec l'IA: Bon retour. Nous
avons donc maintenant la dernière fonctionnalité, qui s'appelle Lip Sync. S'il y a un espace dans la vidéo générée par votre
clip Ino, vous pouvez synchroniser cette personne avec les lèvres. Il vous suffit de
sélectionner votre vidéo. Vous devez cliquer
sur la synchronisation labiale. Il va d'abord
identifier votre vidéo. Ensuite, nous avons cette interface. Comme vous pouvez le voir,
il y a tellement de voix. Vous pouvez sélectionner n'importe lequel. Salut. Tu peux jouer et tu peux jouer. Tu peux écouter cette voix. Vous pouvez sélectionner n'importe quel sexe, comme homme, jeune homme. Salut. Magnifique. Une fois que vous avez
sélectionné votre voix, vous pouvez taper tout ce
que vous voulez qu'il dise. Une fois que vous avez saisi votre discours, vous pouvez également cliquer ici
pour prévisualiser vos mots. Salut, voilà. Je viens du
passé. Je m'appelle Alex. Vous pouvez également modifier la vitesse
de votre voix. Salut, voilà. Je viens du passé. Remplaçons cela par un X, qui est la vitesse normale. Et maintenant, vous pouvez cliquer
sur la synchronisation labiale et cela prendra
vos cinq crédits. Maintenant, vous pouvez également télécharger
votre fichier audio
afin de procéder à la synchronisation labiale. Alors pour l'instant, je
vais cliquer ici, Lip Sync et passer au téléchargement. Du dumbing local. Nous
pouvons télécharger un fichier. Et comme vous pouvez le voir, les gars, si votre enregistrement dure
plus de 5 secondes, vous
devez découper
votre audio. Salut, voilà. Je m'appelle Faizan et
je viens du passé. Salut, le mien. Vous devez donc sélectionner
une partie de
votre fichier audio car la
durée de la vidéo est de cinq secondes Nous devons
donc sélectionner le
son inférieur à cinq secondes. Je vais maintenant
confirmer mon recadrage, et maintenant synchronisons également
ce clip avec les lèvres. Peu importe que vous utilisiez génération
d'image pour vidéo ou
de texte pour vidéo. S'il y a une phase,
vous pouvez synchroniser cette vidéo avec les lèvres. Par exemple, je vais
sélectionner ce robot, et maintenant cliquons
sur la synchronisation labiale. Il s'agit donc d'abord d'identifier s'il existe
une phase de synchronisation labiale. Maintenant, s'il ne parvient pas à identifier
un rythme dans votre clip, vous obtiendrez cette erreur. Identifions cette vidéo, et maintenant, comme vous pouvez le voir, les gars, nous avons
maintenant cette interface. Maintenant, si vous voulez qu'une personne
parle très lentement, vous pouvez régler le débit vocal sur 0,8, qui est le taux le plus bas. Et avant de taper quoi que ce soit, vous pouvez prévisualiser cette voix. Marchons de ce côté et je mettrai peut-être mes
mains dans ma poche. Comme vous pouvez le voir, les gars, les paroles parlent maintenant très lentement, et si je veux qu'il parle vite, vous devez augmenter
le débit vocal Marchons de ce côté. Et peut-être que j'ai mis mes
mains dans ma poche. Et il y a une limite
de durée ici, sur le
côté droit de la voix. Marchons de ce côté. Cette voix dure donc maintenant 4,5 secondes. Alors peut-être devons-nous changer
le débit vocal à 0,9. Marchons de ce côté. Nous avons maintenant une voix de 5,3 secondes. Nous pouvons maintenant prévisualiser cette voix. Marchons de ce côté. Maintenant, si vous voulez qu'une personne
parle très fort, augmentez simplement
le débit vocal. Marchons de ce côté, et peut-être que je mettrai mes
mains dans ma poche. Pour ma part, je vais
régler mon débit vocal 0,9 et cliquer sur la synchronisation labiale. La vidéo de synchronisation labiale
est donc maintenant générée. Voici le résultat. Salut. Je viens du
passé. Je m'appelle Alex. Maintenant, comme vous pouvez le voir, les gars, les résultats sont maintenant
assez étonnants. Maintenant, si vous avez une vidéo en
perspective comme celle-ci, c'est la caméra frontale, mais si vous avez une caméra latérale, la synchronisation labiale est
également très étonnante. Salut, je m'appelle Faizan
et je viens du passé. Comme vous pouvez le voir, les gars, mon
point de vue est en train de changer, mais cela m'a fait bouger la bouche. Je m'appelle Fazan et
je viens du passé. Nous avons également cet exemple. Marchons de ce côté et je mettrai peut-être mes
mains dans ma poche. Je pense que ma bouche
semble bien trop grande qu'elle ne devrait l'être,
mais ça va. Ce n'est pas si mal, et c' est la dernière vidéo que
nous avons générée avec Lips. Oh, je grossis. Mes poumons, mes poumons. Maintenant, vous pouvez également republier
votre vidéo si vous le souhaitez. Il vous suffit de cliquer
ici redub pour télécharger votre audio ou vous
pouvez utiliser la
synthèse vocale pour synchroniser votre clip avec les
lèvres Voici comment vous pouvez
utiliser la synchronisation labiale
pour synchroniser vos
vidéos à l'aide de Cling AI.
19. Étendre la génération de vidéos par IA: Bon retour. Maintenant, si
vous générez une vidéo, vous pouvez également l'étendre. Donc, dans cet exemple, je vais sélectionner
mon hamburger ici. Je vais améliorer
ce burger. Maintenant, le hamburger est amélioré. Donnons vie à cela. Je vais maintenant sélectionner le mode
professionnel et sélectionner Cling 1.0,
car si vous utilisez la version 1.5, vous ne pouvez pas vraiment
étendre votre clip. n'y a aucune option.
Si vous utilisez la version 1.5, vous ne pouvez pas vraiment
étendre votre clip. La vidéo est donc générée. Voici le résultat. Maintenant, si vous regardez de plus près, nous avons une option appelée étendre, et nous avons deux
options d'extension. L'un est Auto Extend. L'autre est une extension
personnalisée. Maintenant, si vous utilisez
la version standard, vous pouvez également
l'utiliser. Et il vous faudra dix crédits si vous utilisez le mode standard. Et si vous utilisez le mode
professionnel, il vous faudra à nouveau 35 crédits. Étendons donc automatiquement. Maintenant, je vais sélectionner à
nouveau
ma vidéo générée et cette fois, je vais sélectionner
Personnaliser l'extension. Maintenant, je vais taper du
rattrapage sur le Burker Maintenant, la vidéo s'étend. Nous avons donc le résultat. Comme vous pouvez le voir, les gars, la vidéo est maintenant étendue à neuf secondes. Et c'est le résultat de l'extension automatique. Nous avons maintenant le dessert pour le
client. Et au bout de 5 secondes, comme vous pouvez le voir, les gars, nous avons ce récupérateur qui est versé
sur le dessus du hamburger Et juste comme ça, vous
pouvez étendre votre clip. Vous pouvez taper ce que
vous voulez dans votre vidéo. Maintenant, j'ai également
d'autres exemples. Donc, dans ce clip, nous
avons cette invite. J'ai généré cette
vidéo en utilisant le texte vers la
vidéo. Et d'ailleurs, c'est le mode standard, pas le mode professionnel. Et c'est également
le mode standard. Et nous pouvons également ajouter la souris
à l'historique des extensions. Et comme vous pouvez le voir, les gars, j'ai tapé un lait à la
main Nous avons donc ce résultat. Nous n'avons pas de lait, mais vous pouvez réessayer
pour obtenir le résultat souhaité. Parfois, cela ne prolonge pas
ce que vous lui demandez. Donc dans ce clip, je tape un nuage
noir couvrant le ciel, et comme vous pouvez le voir, les gars, il ne se passe rien au
bout de 5 secondes. C'est juste une vidéo
Zoom in normale. Rien ne
se passe dans le ciel. C'est un autre exemple où je tape vu se déplacer vers un parking. Et si je joue cette vidéo,
comme vous pouvez le voir, les gars, bout de cinq secondes, nous avons
une voiture derrière le personnage. C'est d'ailleurs
l'extension automatique. Nous avons juste un clip
Zoom arrière normal. Et je tape un vélo
futuriste devant l'arrector. Au bout de cinq secondes, vous pouvez voir que nous avons un vélo. Il s'agit également d'une vidéo en mode
standard. J'ai tapé « accident de voiture »
et au bout de cinq secondes, vous pouvez voir que de la
fumée s'échappait de la Parfois, cela ne
génère pas ce que vous lui
demandez de générer. Dans cet exemple, je lui demande de retirer les
lettres du hamburger, et cela vient de générer
cette vidéo. Et dans un autre exemple, une main ajoute de la
galette supplémentaire dans le hamburger, et nous avons cette main qui
ajuste le hamburger au lieu ajouter la galette Et dans cet exemple, je tape Imodi devient
rouge et se met en Au bout de 5 secondes,
nous avons ce résultat. Il se met en colère, mais
il n'est pas rouge. Non seulement vous pouvez prolonger votre
vidéo jusqu'à 10 secondes, vous pouvez également l'étendre
autant que vous le souhaitez. Comme dans cet exemple, dans l'historique de mes extensions, il
s'agit de l'invite d'origine à
laquelle nous avons généré cette vidéo. Et après avoir ajouté
l'avion qui passe, j'ajoute que l'avion
vole au loin Puis dans la dernière invite, j'ajoute que le ciel devient plus sombre. La pluie est sur le point de tomber. Voici donc la vidéo complète. Il n'ajoute aucun
avion, mais le ciel s'
assombrit, ce que je remarque Au bout de 15 secondes, le ciel s'assombrit. Voici donc comment vous pouvez
étendre votre clip à l'aide de King.
20. kling 1.0 vs kling 1.5: Bon retour. Nous avons donc maintenant toutes les vidéos générées avec Kling AI avec un mode différent. Et dans cette conférence,
nous comparerons 1,0 par mode factionnel à
1,5 par mode factionnel Donc, ici, nous
avons le réglage de la vidéo
générée suivante. Le premier est 1,0 par résultat en mode
factionnel. Et maintenant, nous avons un résultat de 1,5 en mode
professionnel. Comme vous pouvez le constater, le 1.5
fournit ce que je lui demande, tandis que le 1.0 ne fournit qu'
une vidéo d'un accident de voiture. Nous avons un autre exemple. Ici, nous avons l'invite, nous avons les
paramètres, et
voici le résultat du mode professionnel 1.0. Et avec les mêmes réglages, il s'agit du mode 1.5 pro. Et nous avons un autre exemple. Avec ce paramètre, nous
avons un résultat de promotion de 1,0, et maintenant nous avons une promotion de 1,5 Il y a donc une énorme
différence entre 1.0 promode et 1.5 promote Voyons un autre exemple. Avec ces paramètres, nous
avons un résultat promotionnel de 1.0. Et avec exactement le
même réglage avec 1,5, nous avons obtenu ce résultat. Alors, tu as remarqué quelque chose ? Voyons également un autre
exemple. Avec ce paramètre,
il s'agit d'un résultat promotionnel de 1,0, et avec exactement le même paramètre, nous avons un résultat de promotion de 1,5. Avec ce paramètre, il s'
agit du résultat de promotion 1.0. Et avec exactement le même réglage, nous avons obtenu un résultat de promotion de 1,5. Si on en avait fini avec une vidéo de
personnage animée, quoi ressemblerait-on ? Avec ce paramètre, nous avons
obtenu un résultat promotionnel de 1,0. Comme vous pouvez le voir, les gars, nous avons
obtenu notre animation faciale, et avec exactement le même réglage, nous avons 1,5 promotion. Parlons maintenant de ce à
quoi
elles ressembleraient si vous donniez vie à vos photos . C'est donc le résultat
de 1.0 promote, et c'est le résultat
de 1.5 promote. Donc, si vous voulez
donner vie à
vos photos, il n'y a pas beaucoup de
différence entre
1.0 et 1.5 promote. La promotion 1.5 est donc plus
cohérente que la promotion 1.0. version 1.0 génère des vidéos époustouflantes, mais certaines distorsions peuvent être remarquées. Mais il n'y a pas de distorsion
énorme. Si vous utilisez le mode standard, vous obtiendrez une
distorsion ou une violation énorme. Mais si vous utilisez la promotion 1.0, vous n'aurez pas de
distorsion ou d'infraction énorme. Mais si vous considérez la version 1.5 promode, il serait préférable de l'
utiliser car il
n'y a pas beaucoup de distorsion ou d'
infraction à ce que je remarque En comparant les
deux, je remarque que la version 1.5 est plus cohérente et offre
la meilleure promotion que la promotion 1.0. 1.0 promote, dans certains scénarios, donne de meilleurs résultats que 1.5. Voici donc la conclusion à tirer
de la question de savoir si vous souhaitez utiliser 1.5 ou 1.0 promote.
21. Mode standard Kling 1.5 VS Kling 1.0: Bon retour, tout le monde. La nouvelle mise à jour de
Kling AI nous permet donc d'utiliser Kling 1.5 en
mode standard. Avant cette mise à jour,
nous ne pouvons donc utiliser que le mode
professionnel. Nous pouvons maintenant utiliser le
mode standard, ce qui est une bonne chose. Et le mode standard
prendra 20 crédits. Tout d'abord, je vais sélectionner le modèle
de l'image par
rapport à la vidéo et
sélectionnons une image. Maintenant, je vais
sélectionner mon image, et maintenant je vais taper
cet homme brun qui court dans une ville cyberpunk vêtu d'
un costume de style cyberpunk Maintenant, sélectionnons
le mode standard, puis cliquons sur Générer. Maintenant, j'ai généré
quelques exemples, et maintenant nous allons
comparer le mode standard Kling 1.1 au mode standard 1.5. C'est le premier exemple, hommes qui courent dans un environnement
cyberpunk vêtus d'un costume de style cyberpunk Et comme vous pouvez le voir, les gars, j'utilise Kling 1.0, et j'ai
utilisé le mode standard. Et voici le résultat. Et avec la même image
et le même message, voici Kling 1.5. Et comme tu peux le voir, mon gars, le résultat s'est beaucoup amélioré. Je n'ai même pas utilisé le mode
professionnel pour celui-ci, comme vous pouvez le voir ici, j'ai utilisé le mode stand in. Regardons maintenant un autre exemple. Une boue géante s'éloignait du plafond et recouvrait
le corps de l'homme Maintenant, j'utilise le mode
professionnel Kling 1.5 pour celui-ci, et c'est le résultat du
mode professionnel, Kling 1.5. Et avec la même image
avec le même message, j'utilise simplement le mode stand
in de Kling 1.5, et voici le résultat. Vous pouvez donc utiliser le mode standard de Kling
1.5 et vous obtiendrez des résultats
assez étonnants. Nous avons ici un autre exemple, celui homme fuyant le tsunami arrivant de l'arrière-plan. J'utilise le modèle Kling 1.0
et j'utilise le mode standard. Et voici le résultat. Et avec la même image
et le même message, voici le résultat de Kling 1.5. Et comme vous pouvez le constater,
les gars, les résultats sont assez constants. Nous avons maintenant un autre exemple du mode standard ing 1.0, homme fuyant
la grosse explosion qui se produit dans la
caméra de fond qui le suit. Avec la même image
avec la même invite, c'est le résultat du mode standard
Kling 1.5. Y. Voici maintenant le dernier exemple Tout le monde commence à se battre, à se donner des coups de
poing. J'utilise Kling 1.0 et j'utilise le mode
standard pour celui-ci, et voici le résultat. Et avec Kling 1.5, nous avons
ici ce résultat. Vous pouvez maintenant utiliser le mode standard de Kling 1.5
et vous obtiendrez des
résultats assez étonnants si vous n'avez pas de
compte professionnel sur Kling AI.
22. Cadre de départ et de fin Kling 1.5: Bon retour. Ainsi,
dans la nouvelle mise à jour, vous pouvez également utiliser les
cadres de début et de fin en utilisant le modèle
1.5 Cling AI. Maintenant, je génère ce clip en
utilisant ces deux images, voici l'image de départ
et voici l'image de fin. D'ailleurs, vous pouvez également échanger le cadre de fin et le
cadre de départ si vous le souhaitez. Et j'utilise le
mode professionnel pour cette génération, et voici le résultat. Et comme vous pouvez le voir, les gars, presque tous les mouvements
de mon corps sont irréguliers. Passons donc
le modèle à 1,5, et voyons si la vidéo restera cohérente
ou incohérente. Nous avons un autre exemple
de début et de cadre. En utilisant le mode standard, voici le résultat. Passons maintenant
au mode professionnel et passons le modèle à 1,5. Nous avons également cet exemple. En utilisant le mode professionnel 1.0, il s'
agit du cadre de départ et du cadre final. Et nous avons obtenu ce résultat. Voyons maintenant si nous avons obtenu un
résultat cohérent en utilisant 1.5. Passons donc davantage à 1,5, puis cliquons sur concentrer. Les vidéos sont donc maintenant générées. Voici le résultat final. La vidéo est donc
assez cohérente. Mais il y a une incohérence sur mon visage que je ne vois pas Mais il a trouvé la bonne motion. Il est amélioré par rapport au mode
professionnel 1.0. Voyons maintenant
le deuxième exemple. Et je pense que ce
résultat est plutôt étonnant par rapport au mode
debout de 1.0. Maintenant, si vous utilisez des images
incohérentes, si vous utilisez la première image et deuxième image est complètement
différente de la première image, vous obtiendrez un résultat
étrange. Et en voici le premier
exemple. Sur les deux images, la
voiture est coincée dans un mur. C'est pourquoi nous avons obtenu ce résultat. Même si vous utilisez 1.5, vous obtiendrez un résultat étrange. Maintenant, c'est le deuxième exemple. Si vous utilisez des images complètement
différentes, le cadre de départ est
différent du cadre de fin. C'est pourquoi nous avons obtenu ce résultat. Et comme vous pouvez le constater, j'
utilise le mode 115 professionnel. Dans cet exemple, j'utilise une Ferrari. Si vous souhaitez générer des images
cohérentes, rendez-vous d'abord sur
designer dotmicrosoft.com Et pour la Ferrari, je saisis simplement une
vue panoramique d'une voiture Ferrari. Et en tapant ce mot, vous devez simplement améliorer l'invite, cliquer sur cette invite améliorée, et il écrira
l'invite pour vous. Vous pouvez maintenant copier, sélectionner la taille ou
générer les images à partir de
designer dotmicrosoft.com Mais les images de
Designer Microsoft l'air caricaturales Ils n'ont pas l'air réalistes. Pour générer des images réalistes, rendez-vous dans Labs point Google
et allez dans Effets d'image. Comme vous pouvez le voir, les gars, j'
ai sélectionné des effets d'image. Passons à la section Ma bibliothèque. Et comme vous pouvez le voir,
les images des labos parsèment
Google, c'est assez réaliste. Maintenant, en cliquant ici,
vous pouvez accéder à Image effet, vous pouvez coller votre invite et
cliquer sur ce bouton pour générer. Pendant
la génération des images, passons au designer,
et comme vous pouvez le voir, les gars, les images
du designer ont l'
air caricaturales Alors que si vous allez dans
les laboratoires pointant sur Google, nous obtenons des résultats réalistes. Téléchargeons cette image. Et si vous faites défiler l'écran
vers le haut jusqu'à votre invite, comme vous pouvez le voir,
c'est un grand angle. Nous pouvons également modifier
cela pour fermer. Nous pouvons également changer la
couleur de la Ferrari. Nous pouvons changer le nom de la marque. Vous pouvez modifier la couleur du
mot clé si vous le souhaitez. Nous pouvons maintenant cliquer sur Générer. Avant de générer un grand angle, nous pouvons
maintenant générer un
gros plan d'une Ferrari. Et en faisant cela,
comme vous pouvez le voir, les gars, vous obtiendrez des images
cohérentes. Maintenant, cliquons sur
ce bouton de téléchargement. Et maintenant, si nous ouvrons les images, ces deux images semblent
cohérentes. Ils se ressemblent. Après avoir téléchargé
les images, je sélectionne le gros plan
au début et le
plan blanc à la fin, et nous avons obtenu le résultat. Et d'ailleurs,
cela est généré en utilisant le mode standard 1.0. Et avec les mêmes images, nous avons obtenu ce résultat. Comme vous pouvez le constater, le
résultat est constant. Si vous souhaitez que la caméra bouge, vous pouvez également changer de cadre. Et pour ce résultat, j'échange simplement le cadre. Je sélectionne le plan blanc
dans l'image de départ et change le
plan rapproché dans l'image de fin. Et c'est le
résultat que nous avons obtenu. Et ces deux images ont également été
générées en utilisant
le point lapsus de Google, et nous avons obtenu ce résultat. Il existe donc une autre
méthode si vous souhaitez générer des images
cohérentes. Tout d'abord, allez sur Chat GBD et demandez-lui d'écrire une invite de génération d'
image, une bouteille d'eau tombée
du ciel à Paris Et nous avons reçu cette invite
et nous lui demandons maintenant d' écrire une invite pour
la deuxième scène. Maintenant, je lui demande simplement de garder ces deux instructions cohérentes
et de me les donner. Je copie et colle cette invite
dans Labs point Google. Comme vous pouvez le constater, il s'agit
du premier résultat rapide et du
deuxième résultat rapide. La bouteille tombe
du ciel
et, dans la seconde invite,
elle a atterri au sol. Et voici le résultat. Maintenant, j'ai utilisé le mode 1.0 tenon, mais vous pouvez changer votre modèle en 1.5 et sélectionner le mode
professionnel, et vous obtiendrez alors
des résultats professionnels et
cohérents Maintenant, vous pouvez également demander à JA GPT
de générer des images pour vous. Comme vous pouvez le constater, les gars, je
lui demande d'écrire six instructions, garder la cohérence en six, un laps de temps entre une
plante et un arbre adulte Voici six instructions, mais je lui demande de générer ces images et de
générer ces images Et puis je lui demande si
tu peux les rendre réalistes ? Et nous avons obtenu ces résultats ? Puis je lui ai demandé de les rendre ultra réalistes et
nous avons obtenu ces résultats. Ensuite, je mets ces deux images
et je regarde le résultat. Ainsi, en utilisant des images
cohérentes, vous obtiendrez un résultat
professionnel. Voici un autre exemple : si vous échangez le cadre du formulaire, nous obtenons cette transition
en fondu entre ces deux cadres. Et si vous utilisez ce
cadre au début et ce cadre à la fin
et que vous utilisez le standard 1.0, nous obtenons ce résultat, qui est meilleur que 1,5 résultat, mais 1,5 résultat est cohérent. J'espère donc que vous aurez
une idée de la façon dont vous pouvez générer les
vidéos de début et de fin de manière professionnelle. Veillez simplement à la cohérence des images. Maintenant, si vous avez deux images
cohérentes, vous pouvez générer des résultats
assez étonnants. Comme si j'avais ces deux images qui semblent identiques
l'une à l'autre. Dans le premier cadre,
nous avons une graine, et dans le cadre final, nous avons
une petite plante ou un arbre. Maintenant, j'utilise le mode standard link
1.0, et nous avons obtenu ce résultat. Une graine qui devient une
plante ou un petit arbre. Maintenant, je passe simplement mon modèle
en mode 1.5 professionnel, et j'ai obtenu un résultat étrange. La graine ne se transforme pas. Nous n'avons
rassemblé que deux clips dans une vidéo. Donc, si vous obtenez
ce type de résultat, essayez de taper une invite. J'utilise donc à
nouveau ces deux images et je tape une invite, graine
se transformant en un petit arbre. Et puis j'ai obtenu ce résultat
incroyable.
23. Pinceau de mouvement de Kling 1.5: Bon retour. La
nouvelle mise à jour de Kling AI nous
permet donc d'utiliser Kling 1.5
avec la fonction Draw Brush. Vous pouvez maintenant utiliser la
fonction Draw Brush avec Kling 1.5. Nous avons donc maintenant cet exemple. Comme vous pouvez le voir, les gars,
je l'ai généré en utilisant la fonction Draw
Brush. Et voici le tracé de mon pinceau de dessin, et c'est le résultat du mode standard
Kling 1.0. Maintenant,
avec la même image avec le même tracé dessiné, je vais utiliser le mode
professionnel, sélectionner Cling
1.5 et générer. Nous avons maintenant un autre exemple. Et si je prends le
chemin, comme vous pouvez le voir, les gars, c'est mon chemin. Maintenant, je vais utiliser
le mode professionnel et passons
au modèle 1.5, puis cliquons sur Générer. Nous avons maintenant la même
image cette fois. Mais je n'ai dessiné que le flash
du pistolet, comme vous pouvez le voir. Je vais maintenant sélectionner le mode
professionnel et
sélectionner clean 1.5, puis cliquer sur Générer. Il s'agit d'un autre exemple de brosse à
mouvement avec mode
professionnel et d'utilisation. Il s'agit d'
un autre exemple de brosse à
mouvement utilisant le modèle clean 1.0 et le mode professionnel. Et si nous empruntons le chemin, c'est le chemin que j'ai tracé, et voici le résultat. Maintenant, changeons de modèle en dessinant le même tracé de
pinceau. Cliquons sur générer. Et nous avons également cet
exemple. Avec cette image, si nous reprenons
le tracé du pinceau animé, c'est le chemin que j'ai dessiné. Avec un mode professionnel de
1.0, c'est le résultat. Si vous regardez ma
conférence précédente sur le motion brush, j'essaie vraiment
de me faire asseoir. Et au final, j'ai obtenu ce
résultat après quelques essais. Essayons maintenant le
même chemin de pinceau de mouvement, mais avec Kling 1.5, et utilisons le mode
professionnel pour
accéder au pinceau de mouvement de 1.5. Et c'est maintenant le résultat du mode professionnel
Kling 1.5. Et comme vous pouvez le voir, les gars, tout est
maintenant constant. Et voici le
deuxième exemple de brosse à mouvement
en mode professionnel
1.5. Et comme vous pouvez le voir dans le guide, le résultat est assez étonnant. Et voici un autre
exemple où je me contente de brosser le flash du pistolet. Et celui-ci est assez délirant. Et voici un autre
exemple de votre botte. Et comme vous pouvez le voir, les gars, le mouvement de leur
corps est constant. Il n'y a aucune infraction
dans la vidéo, quelle que soit l'image. Cela ressemble un peu à une
vraie animation en trois dimensions. Même dans cet exemple, alors que dans le mode professionnel de la version 1.0, nous avions un mouvement de main étrange, mais en version 1.5, je remarque que le mouvement de la
main est désormais corrigé Donc, 1.5 est en fait
amélioré dans Motion Brush, et c'est le résultat du fait que j'
essaie de m'asseoir à
l'aide de l'IA. Et je trouve ce résultat assez incroyable. Et voici d'
autres exemples étonnants. J'utilise donc cette image, et si nous passons
au pinceau de mouvement, je trace ce chemin. Tout d'abord, je dessine la pédale et trace de ce côté. Ensuite, je puise toute l'eau et je la trace
jusqu'à ce côté. Ensuite, je retire ce côté de l'eau parce que si
on regarde l'image, on a ces ondulations
dans l' Je supprime donc cette partie. Je supprime donc ce chemin à l'
aide de l'outil tableaux, puis je sélectionne
la zone trois, trace ce chemin et je trace
ce pad de ce côté Enfin, je sélectionne mon sujet d'accueil et je fais le suivi de
mon sujet jusqu'en haut de la page. Maintenant, à la finale, je dessine
ce tableau sous forme de zone statique. Et j'utilise le mode standard pour cette
génération de pinceaux animés et j'utilise la version 1.0. Et si je joue ma vidéo, c'est un résultat 1.0. Même la version 1.0 a l'air incroyable. Maintenant, en utilisant la
version 1.5 avec la
même image, le même tracé de pinceau, nous avons obtenu ce résultat cohérent. N'est-ce pas incroyable ? Maintenant tu
peux faire une dernière chose. Si vous remarquez, nous avons un problème. Le bateau ne bouge pas du tout. Vous pouvez donc également sélectionner l'outil As,
activer la segmentation automatique
et effacer la zone statique. Parce que nous dessinons le
bateau comme une zone statique, c'est pourquoi le
bateau ne bouge pas. Nous pouvons maintenant sélectionner
l'outil de brosse. Nous pouvons sélectionner la zone 5. Nous pouvons dessiner le bateau entier. Et nous pouvons suivre le
bateau jusqu'à ce site. Maintenant, confirmons. Et pour cela, je vais utiliser mon
mode standard et sélectionner 1.0. Pendant la génération de la vidéo, voyons un autre exemple. J'utilise donc cette image, et si nous passons à la trajectoire du pinceau de
mouvement, maintenant dans la trajectoire du pinceau de mouvement, je dessine ma voiture, et je veux la déplacer de ce côté. Et je dessine l'ensemble de
la zone comme une idée statique. Avec le mode standard 1.0, c'est le résultat final. Comme vous pouvez le voir, la
voiture roule dans cette direction. Je répare donc mon espace pour
la prochaine génération. Si nous passons au pinceau de mouvement, je trace ma ligne de ce côté. Dans le passé, je
dessinais ma ligne comme ceci. Maintenant, je suis passé de ce côté. Et nous avons ici le résultat
du mode standard 1.0. Et on dirait que la
voiture dérive un peu. Et avec le mode professionnel 1.0, avec ce chemin mis à jour, nous avons
ici le résultat. Et avec la même voiture,
la même image, le même chemin. Mais cette fois, j'utilise le mode professionnel
1.5, et voici le résultat final. Maintenant, nous avons également un autre
exemple. J'utilise cette image, et si nous utilisons
le pinceau de mouvement, je dessine ma voiture et
je trace ce chemin. Je veux déplacer cette
voiture de ce côté, et je dessine l'océan entier
et je déplace l'océan ce côté et je dessine
toute la zone sous forme de zone statique. Et voici le résultat. Ce n'est pas ce à quoi je m'attendais. La voiture recule
au lieu d'avancer. Donc, dans ma prochaine génération, je règle ce problème. Je trace ce chemin de ce côté, je trace la flèche de ce côté. Dans la génération précédente, je dessinais
la flèche de ce côté. Donc, en traçant la flèche de
ce côté sur le sol, j'ai obtenu ce résultat. Nous réglons ce problème. Donc, si vous avez
ce genre de problème, vous pouvez facilement les résoudre
en contrôlant votre zone. Et en utilisant le mode
professionnel 1.5, voici le résultat final. Comme vous pouvez le constater, la
vidéo est cohérente. Il n'y a aucune infraction. Tout semble réaliste. Et nous avons un exemple
où nous avons un tigre. Et si vous utilisez
le pinceau à mouvements, je dessine le tigre, je
pointe la flèche dans l'eau, je dessine l'eau entière et je pointe
la flèche de ce côté. Je veux que l'eau se
déplace de ce côté, et je veux que mon tigre
entre dans l'eau. Et c'est ce que nous avons
obtenu en utilisant la version 1.0. Maintenant, si vous utilisez le pinceau de mouvement, je dessine cette roche comme grenier. Mais dans ma prochaine génération, si nous utilisons le pinceau à mouvements, je supprimerai cette zone en tant que grenier. Et je corrige également le
positionnement de mes flèches du tigre, et avec le mode professionnel 1.5, c'est le résultat final. C'est le résultat que nous souhaitons. Le bateau bouge un peu. Ce n'est pas le bateau, mais nous avons vu un moment de
caméra dans la vidéo. Utilisons maintenant un mode
professionnel, utilisons 1.5
et générons. Donc, si vous ne voulez
pas perdre de crédits supplémentaires,
j'ai un conseil pour vous. Si vous souhaitez utiliser Motion Brush, utilisez le mode tendon 1.0 En faisant cela, si vous vous
trompez, vous pouvez régler votre problème pour
la prochaine génération. Et si le problème est résolu, vous pouvez utiliser le mode
professionnel 1.5, vous obtiendrez
votre génération et la vidéo
restera cohérente. Cette méthode vous permet
de sauvegarder vos crédits. Si vous utilisez le mode
professionnel 1.5 lors de
votre première génération, vous perdrez 25 crédits
supplémentaires. C'est donc ma façon d'
économiser les crédits. Vous pouvez également utiliser la même méthode
pour enregistrer vos crédits. Donc, une
vidéo en mode professionnel 1.5 est maintenant générée, et voici le résultat. Voici comment vous pouvez
utiliser l'outil Motion Brush en utilisant le mode professionnel 1.5.
24. Mouvement de caméra avec Kling 1.5: Bon retour. Ainsi, dans la version
précédente de Ling AI, nous ne pouvions pas vraiment utiliser le
moment de la caméra si vous passez également de l'image à Video Inkling 1.5 ou
Inkling 1.0 Mais maintenant, nous pouvons utiliser
le moment de la caméra
dans Cling 1.5 en utilisant le mode
professionnel. Donc, pour générer des images, j'utilise designer domicrosoft.com,
copiez cette invite Ensuite, je colle l'invite
dans les laboratoires, point Google. Et sélectionnez l'image de gauche. Vous pouvez désormais également modifier
le mot clé surligné. Si je vais dans ma bibliothèque, comme vous pouvez le voir, ce sont
mes premiers résultats rapides Je sélectionne le mot clé
surligné et je modifie quelques mots clés, puis j'obtiens ces résultats. Si vous allez dans le
Microsoft Designer, je sélectionne cette image,
vous pouvez cliquer ici, modifier l'intégralité du bal de fin d'année, vous
pouvez copier cette invite, et je colle cette invite
dans les laboratoires de Google, et j'ai obtenu ces résultats. Accédez à Cling AI, sélectionnez
votre modèle sur 1.5. Passez de l'image à la vidéo. Maintenant, je vais d'abord
sélectionner l'image mobile. Vous pouvez faire défiler l'écran vers le bas et sélectionner le mode professionnel. Et dès que vous avez sélectionné
votre mode professionnel, comme vous pouvez le voir,
nous avons un moment de caméra. Vous pouvez sélectionner le moment
de
votre caméra dans ce menu déroulant si
vous faites défiler encore plus la page vers le bas, comme vous pouvez le voir, mec, ce
sont mes moments devant la caméra. Donc, si vous sélectionnez
cette option, vous pouvez modifier le curseur pour obtenir le moment de
votre appareil photo Si vous passez à moins dix sur le côté
gauche, vous obtiendrez un moment de caméra
horizontal gauche. Si vous sélectionnez la verticale, vous obtiendrez le moment
vertical de la caméra. Nous avons le zoom, le stylet et le tilt and roll. Je vais donc sélectionner
ce stylo moins dix. Changeons les deux moins cinq. Il ne faut pas aller à l'extrême. Passons peut-être à l'extrême. Maintenant, cliquons sur le taux de contenu. Maintenant, sélectionnons cette image et téléchargeons cette image. Et pour cette image, je vais sélectionner l'inclinaison et passer
à moins dix. Ou peut-être pouvons-nous
sélectionner cette image. Téléchargeons cette image,
faisons défiler la page vers le bas, et je vais
changer mon inclinaison à dix. Maintenant, nous allons cliquer sur générer. Je génère également cette image, et c'est l'
invite de cette image. Maintenant, pour cette image, je vais changer
le panoramique à dix. Pendant la génération de cette vidéo, je vais vous montrer
quelques exemples de moments passés
devant la caméra en utilisant
1,5 image pour vidéo. Dans cet exemple, je sélectionne cette image et je change le moment de mon appareil photo en dix
à la verticale, et j'ai obtenu le résultat suivant. Maintenant, dans la deuxième image, je change le
moment de la caméra en panoramique moins dix, et nous avons obtenu le résultat suivant. Et pour cette image, j'utilise Zoom camera moment, valeur dix, et
voici le résultat. Comme vous pouvez le voir, les gars, 1,5
est assez constant. Et pour cette image, j'utilise le point
panoramique de mon appareil photo, valeur dix. La caméra se dirige
vers le ciel. Et si vous remarquez qu'il n'y a aucune
incohérence dans la vidéo, est à
peu près cohérente Et dans cet exemple, j'utilise la valeur dix du rôle. C'est le moment extrême de la
caméra. Et il
y a quand même une infraction
ici, mais pas trop. Maintenant, d'ailleurs, vous pouvez également mélanger ces types de
vidéos avec caméra. Par exemple, je peux mixer cette
vidéo avec cette vidéo, téléchargeons ces deux vidéos. Je vais maintenant
vous montrer comment mélanger ces types de
vidéos avec caméra. Tout d'abord, ouvrez le capuchon découpé. Il s'agit du meilleur logiciel de montage
vidéo
pour débutants sur le marché. Maintenant, créez un nouveau projet. Cliquez ici pour créer
un nouveau projet. Sélectionnez maintenant ces deux
vidéos et
importez-les ici même dans
la page média. Maintenant, je peux d'abord importer
cette vidéo, et importons cette vidéo
à côté du premier clip. Nous pouvons maintenant appuyer sur la touche espace
pour prévisualiser ce clip. La caméra se
déplace donc de ce côté, nous pouvons
donc également inverser
ce clip Mais je pense qu'au lieu d'
inverser le clip, plaçons ce clip
ici et nous pouvons inverser ce clip
ici. Cliquez ici. Sélectionnez d'abord votre
clip et cliquez ici pour inverser votre clip vidéo. Et maintenant, comme vous pouvez le voir, nous pouvons mettre cette vidéo ici. Nous pouvons également sélectionner ce clip, accéder au masque, sélectionner
le masque horizontal. Nous pouvons inverser ce
masque en cliquant ici, sélectionner cette
flèche et la déplacer vers pour
créer cette plume Nous pouvons maintenant faire glisser cette ligne de ce côté et
changer la plume Deux 0 %. Maintenant, ajoutez une
image-clé ici, et nous pouvons également ajouter l'
image-clé en position Maintenant, avancez de quelques images, changez-le de ce côté et
changez également la plume Et maintenant, si vous
regardez la vidéo, nous avons obtenu un résultat incroyable. Recadrons-le,
sélectionnons ce clip, passons à l'animation, passons à l'animation de sortie, et nous pouvons ajouter une animation en
fondu. Et si je joue ce
clip, comme vous pouvez le voir, les gars, c'est le résultat final. Voici comment vous pouvez utiliser
vos clips
de caméra de Kling AI et
les fusionner comme ceci. Voici un
autre exemple de moment passé
devant la caméra en utilisant le mode professionnel Kling
1.5. Il s'agit de la valeur du
moment de la caméra panoramique moins dix, et voici le résultat. Maintenant, je recommande vivement de ne pas utiliser à une valeur extrême le moment de
votre appareil photo. Dites simplement, comme ici, si vous voulez obtenir
un résultat réaliste, deux moins trois ou
deux plus trois, si vous voulez obtenir
un résultat incroyable. Nous avons maintenant le
deuxième exemple où j'utilise la position d'inclinaison extrême dix, et voici le résultat. Maintenant, voici le dernier exemple. J'utilise le panoramique plus dix, et c'est aussi un moment
extrême devant la caméra. Mais pour ce cliché, cela
fonctionne plutôt bien. Voici donc comment vous pouvez
utiliser le moment de l'appareil photo en utilisant le mode professionnel 1.5.
25. Kling 1.6 vs 1.5 vs 1.0 Text-to-Video: Bon retour. Kling AI vient donc de
lancer son nouveau modèle, Kling 1.6,
qui devrait être amélioré par rapport
à sa version précédente. Comme Kling 1.5, vous pouvez également utiliser le mode standard
avec Kling 1.6. Mais actuellement, nous ne pouvons pas
vraiment utiliser le pinceau de mouvement, et nous ne pouvons pas vraiment utiliser le moment de la
caméra avec Kling 1.6. J'ai donc cet exemple. C'est une invite, et j'utilise le mode professionnel
Kling 1.0, et voici le résultat. Maintenant, avec la même invite, j'utilise Cling 1.5, et c'est le résultat du mode professionnel
1.5. Passons maintenant à l'
édition et
générons-le avec une nouvelle version de 1.6. Nous pouvons maintenant cliquer sur Générer. La vidéo est donc maintenant générée, et voici le résultat. Voyons le résultat. De loin, 1,6 est assez étonnant. C'est bien mieux. Il est bien supérieur aux versions 1.5 et 1.0 car vous ne pouvez pas
vraiment détecter de
violation d'image ou vous ne
pouvez pas vraiment remarquer
de violation d'image dans les clips que vous avez générés. Maintenant, j'ai un autre exemple que je voudrais partager
avec vous. C'est l'invite, et j'utilise 1.6 promote pour cette génération, et nous avons ici le résultat. Comme vous le constatez, il n'y a aucune violation d'image
dans les clips générés. Et comme vous pouvez le constater, les gars, le 1.6 est plus clair et il n'y a aucune
violation d'inframe dans le 1.6 Dans les versions 1.0 et 1.5, il y a une petite violation de
cadre, mais dans la version 1.6, il
n'y a aucune violation de cadre
dans le résultat généré. Maintenant, nous avons
un autre exemple. C'est l'invite, et j'utilise également le mode pro
pour cette génération. Et le résultat semble réaliste. Il y a une petite
violation du cadre ici, mais tout semble parfait. Et il s'agit d'un résultat de 1,0 et 1,5. Maintenant, avant que vous ne vous
enthousiasmiez et que vous commenciez à utiliser la version 1.6, je voudrais partager ce secret avec
vous. Le 1.6 est composé de quatre clips réalistes. Si vous utilisez une invite irréaliste, vous n'obtiendrez pas de meilleurs
résultats que 1,5 ou 1,0 Permettez-moi de vous montrer un exemple. À la même invite, nous avons
à la fois un résultat 1.0 et 1.5. Et maintenant, avec la même invite, c'est le résultat du mode 1.6 pro. n'y a aucune violation du cadre, mais je n'ai pas aimé
le style de 1.6. La version 1.5 est bien meilleure si vous souhaitez
générer des clips animés, mais la version 1.6 est préférable pour des clips réalistes. Donc, avec ce bal de promo, c'est le résultat
du mode 1.5 pro. Et avec la même invite, c'est le résultat
du mode 1.6 pro. Maintenant, toutes ces vidéos sont générées en mode
professionnel 1.6,
mais le mode standard 1.6 est-il également
utile pour la génération de vidéos ? Je vais vous montrer
quelques exemples, et je vais comparer les modes standard 1.0, 1.5 et 1.6 car toutes ces vidéos sont générées en mode
professionnel. Voyons maintenant si le mode standard également suffisant pour la génération de
vidéos ou non. Voici donc l'invite, et c'est le résultat
du mode standard 1.0. Maintenant, avec la même invite, il s'agit du résultat
en mode standard de 1,5. Et 1,5 est également utile
pour la génération de vidéos. Et maintenant, nous avons le mode standard 1.6
final. Donc, comme je vous l'ai dit tout à l'heure, 1.6 est bien
plus réaliste que l'autre, car la vidéo 1.5 a l'air géniale, mais c'est irréaliste pour moi La version 1.6 est donc destinée à la génération
réaliste, mais si vous souhaitez
générer entre réalisme et irréalisme,
utilisez 1.5 C'est maintenant un autre exemple. C'est l'invite, et
c'est le résultat de 1.5. Et nous avons ici le résultat
du mode standard 1.6. Et pour cet exemple, je pense que la version 1.6 est clairement gagnante,
car dans la génération 1.6, vous pouvez clairement voir un
petit moment passé devant la caméra et tout
semble parfaitement clair Maintenant, avec cette invite, il
s'agit d'un résultat de 1.0. Et c'est un résultat de 1,5 en mode
standard. Et maintenant, c'est le résultat
de 1,6 avec la même invite. Et pour cet exemple, version 1.6 est également la
solution gagnante pour cette génération,
car en arrière-plan, le bâtiment est également très beau et peut également être très beau. Nous avons maintenant un autre exemple. Il s'agit de l'invite,
et c'est le résultat du mode standard 1.0. Avec la même invite,
c'est le résultat du mode standard 1.5. Enfin, nous avons le résultat du mode
standard 1.6. Et comme vous pouvez le voir,
les gars, 1.6 c'est génial. Il semblerait que nous filmions cette sphère avec
le téléphone portable. Et comme je vous l'ai dit tout à l'heure, 1,5 se situe entre
le réalisme et l'irréalisme Nous avons maintenant l'avant-dernier exemple. C'est l'invite,
et tout d'abord, c'est le résultat du mode standard
1.0. Et comme on s'y attendait,
tout semble pourri. Passons maintenant à la version 1.5. Avec la même invite, 1.5 parvient à générer
ce chef-d'œuvre. Il y a une
petite infraction, mais tout semble parfait. Enfin, nous avons un résultat de 1,6. Et c'est un
résultat inattendu pour moi. Parce que je trouve que la version 1.5
convient parfaitement à cet exemple. Parce qu'en 1.5, vous pouvez voir
clairement en arrière-plan, nous avons une certaine
audience, mais en 1.6, il n'y en a pas. Et comme je vous l'ai dit plus tôt, si vous souhaitez générer une vidéo
réaliste, utilisez 1.6. Mais si vous ne voulez pas
générer une vidéo réaliste, mais que vous souhaitez également générer une partie du réalisme de
la vidéo, utilisez 1.5. Maintenant, si vous essayez de
régénérer cette invite, c'est le résultat de 1.5 Et étonnamment, la version 1.6
fonctionne désormais un peu mieux. Et si vous remarquez que le robot commence à se diriger vers
le robot rouge, le sol tremble
et, avec le
tremblement du sol , la caméra
tremble également légèrement Et maintenant, nous avons le
public en arrière-plan. Pour cette génération, je pense qu'
il y a égalité entre 1,6 et 1,5. Nous avons maintenant le dernier exemple. chaleur est l'invite,
et avec cette invite, il s'agit du mode standard 1.0. Et avec la même invite, c'est le résultat de 1,5. Et maintenant, enfin, nous avons 1,6. Et comme vous le remarquez, les gars, même avec ce mode standard, 1.6 se démarque. Maintenant, je régénère accidentellement
cette invite en utilisant 1.5, et voici le résultat
régénéré Et 1,5, c'est
plus beau qu'avant dans
ce clip régénéré Donc, pour ce don, 1,6 est également le gagnant. Donc, de loin, ce que j'ai utilisé 1.6 est bien meilleur si vous voulez
générer des clips réalistes.
26. Mode professionnel Kling 1.6 vs mode Kling 1.5: Bon retour.
Parlons maintenant génération d'image en vidéo
1.6. La version 1.6 améliore-t-elle la génération d'image en
vidéo par rapport à la version 1.5 ? Permettez-moi de vous donner
quelques exemples. Tout d'abord, dans cet exemple, nous avons cette image, et j'écris une invite : un couteau coupant une pomme en deux morceaux. Et comme vous pouvez le constater, j'utilise le modèle 1.5, et j'utilise le
mode professionnel pour cette génération. Maintenant, même le mode professionnel, comme vous pouvez le voir, les gars,
semble irréaliste Maintenant, avec la même image
avec la même invite, j'utilise simplement le mode 1.6
professionnel, et c'est le résultat de 1.6. Et après avoir vu
cette génération, version
1.6 est bien meilleure que les autres outils
actuellement disponibles sur
le marché, car le mouvement est excellent et Apple Slice
Slide semble réaliste. Voyons maintenant également un
autre exemple. Dans cet exemple, j'utilise ma photo
et je tape un bal de fin d'année. La pièce s'
assombrit très vite, et la tête de la personne est en feu pour
éclairer la pièce qui suit. Je veux donc que la pièce sombre et que mon
visage soit incendié. Et comme vous pouvez le constater, j'utilise le mode professionnel 1.5, et voici le résultat. Ça a l'air génial, mais ça
n'a pas l'air réaliste. Maintenant, nous allons extraire le résultat de 1.6 avec la même invite
et avec la même image. J'utilise le
mode professionnel pour la version 1.6. Même la vidéo est irréaliste, mais visuellement, 1,6
est bien mieux Nous avons maintenant un autre exemple. Et
sur cette photo, je tape Man fuyant le
robot qui le suit. J'utilise le mode professionnel 1.5
et j'ai obtenu ce résultat bizarre. Et après avoir vu ce
résultat, je me suis dit pourquoi ne pas régénérer ce clip
en utilisant le mode professionnel 1.6 1,6 va
être mieux, non ? Si je joue mon clip, comme vous pouvez le voir, la
personne court, tout semble
réaliste, mais il n'
y a aucun robot dans le clip. Je lui demande d'ajouter un robot, mais il n'y a aucun
robot dans le clip. C'est donc un
peu décevant. Je veux donc régler ce problème. J'ai donc réfléchi à la manière de
résoudre ce problème. Donc, dans cet exemple, je change simplement le bal de fin d'année. Personne qui court vers la caméra, notre robot géant le poursuit. J'utilise une image différente
parce que dans l'image précédente, on ne voit pas vraiment mon visage. Et j'utilise le mode professionnel 1.6, et maintenant nous avons amélioré le résultat. La personne court et le
robot le poursuit également. Et comme tu peux le voir, mec, le résultat est
vraiment superbe. Et je suis
satisfait de ce résultat. Donc, si vous avez un problème
avec votre génération, modifiez
simplement l'invite. Vous obtiendrez le résultat
que vous souhaitez. Maintenant, si vous n'obtenez pas le
résultat que vous voulez, comme dans cet exemple, avec la même image
avec le même bal de promo, j'ai obtenu ce résultat. Mais je régénère ce résultat, et j'ai obtenu ce résultat, qui est également amélioré en termes de qualité
et de mouvement Si vous n'obtenez pas le
résultat escompté,
même si vous tapez un message
très précis, vous obtenez une image de haute qualité
de vous-même ou de quelqu'un d'autre, essayez de la
régénérer en profondeur, car cela
vous aide à améliorer la qualité
ou le mouvement Nous avons maintenant un autre exemple. Sur cette image, je tape ce ballon coloré
qui tombe du plafond. Certains d'entre eux tombent sur la lumière de la personne illuminant la pièce avec un ballon de couleur Et c'est le résultat que
j'ai obtenu, c'est d'ailleurs le mode professionnel
1.5, et
tout semble parfait. Et maintenant, nous avons 1.6 avec le même pro
avec la même image, et aussi le même mode qui est le mode professionnel.
Voyons le résultat. 1,6 est bien plus
réaliste que 1,5. Mais dans la version 1.6, nous avons obtenu quelques détails. Si vous remarquez sur l'écran LCD,
comme vous pouvez le voir, les gars, dès qu'un ballon
tombe du plafond, nous avons le reflet sur
cet écran LCD. Et nous avons également obtenu des ballons
réalistes, mais ils apparaissent pendant une
courte période. 1,6 est un peu
mieux que 1,5. Si vous comparez le résultat, 1,6 est un peu mieux, pas trop, mais un
peu mieux. Mais si vous parlez de
l'émotion, 1,6, détruisez
simplement 1,5 parce que 1,6 mouvement semble
réaliste, alors que 1,5. Si vous regardez 1,5 émotion, ils ont juste le sentiment
que ce n'est pas réel. Mais en 1.6, tout
semble parfait. Mais j'aime bien
les deux résultats. Donc, si vous voulez utiliser la version 1.5, vous pouvez
certainement l'utiliser. Maintenant, 1,6 est également meilleur
en termes d'expression. Sur cette image, comme vous pouvez le voir, je tape un message, une personne debout avec
une expression neutre, passant à une
expression triste puis à
une expression heureuse,
puis enfin à un sourire Et voici le résultat. Maintenant, après ce résultat, je le régénère avec le même mode avec le
même modèle, à savoir 1,6 Ici, nous avons
régénéré le résultat, et j'aime bien ce
résultat par rapport au précédent Donc, si vous n'obtenez pas le résultat
escompté,
essayez de vous régénérer Nous avons un autre exemple
de mode professionnel 1.6. Sur cette même image, je tape un homme qui court dans une ville cyberpunk vêtu
d'un costume de style cyberpunk, et voici le
résultat que j'ai Si vous essayez quelque chose d'
irréaliste, vous risquez d'obtenir
quelques violations dans vos clips générés Mais en termes de visuel, je trouve que la version 1.6 est très belle. Et voici maintenant
le dernier exemple du mode professionnel 1.6. J'utilise cette image et je tape une
carte qui
se transforme en voiture blanche, et c'est le résultat du mode professionnel
1.6. Maintenant, en termes de qualité vidéo
et de réalisme, 1.6 essaie d'être réaliste
autant que possible.
27. Mode standard Kling 1.6 vs Kling 1.5: Bon retour. Le mode professionnel
1.6 est donc meilleur que
les autres modèles d'IA. Mais le mode 1.6 tener est-il également
utile pour la génération de vidéos ? Découvrons-le à l'aide de
quelques exemples. Ici, nous avons
cette image et nous avons même problème que celui que nous utilisons
en mode professionnel. Maintenant, en termes d'expression, 1.5 n'est pas vraiment bon dans ce domaine. Maintenant, avec la même image avec la même invite
avec le même mode, qui est le mode standard, mais j'utilise 1,6, et même en mode standard, 1,6 vaut mieux que 1,5. Nous avons maintenant un autre exemple. Sur cette image, alors cette personne rapide
court vers la caméra, un robot géant le poursuit. J'utilise le mode standard 1.5, et voici le résultat. Pour ce don, je pense que
1,5 a vraiment fait du bon travail. Mais le robot ne me poursuit pas. Il poursuit ces gens. Et maintenant, avec la même
image avec la même promo, mais avec le modèle
1.6 en mode standard, voici le résultat. Et je pense que la version 1.6 a vraiment fait
un excellent travail. Il a également battu 1,5 dans cette
génération. Nous avons un autre exemple. Imaginez qu'avec ce bal de fin d'année, tout le monde commence à se battre, à se donner des coups de
poing J'utilise le mode standard 1.5, et voici le résultat. Maintenant, avec la même image
avec la même promo, il suffit d'utiliser 1.6 pour celle-ci, et j'utilise également le
mode standard pour cela. Et voici le résultat. J'ai l'air un peu mieux que 1,5 parce qu'il y a moins
d'infractions que 1,5. Prenons également un
autre exemple. Maintenant, tu te souviens de ce type ? J'utilise cette image du moster
pour comparer
le mode
professionnel 1.0 et 1.5 Mais ils ne parviennent pas tous les deux à exprimer l'expression de ce monstre Maintenant, avec le mode standard
1.6, 1.6 a vraiment bien exprimé
l'
expression de ce monstre Voyons maintenant un
autre exemple. Sur cette image, il s'
agit du mode standard 1.5. À cette invite, une fine boue tombe du plafond et
recouvre le corps de l'homme Maintenant, avec la même image
avec la même invite, avec le mode standard 1.6, voici le résultat. Maintenant, je pense que 1,5 de cette génération a fait un
très bon travail, puis 1,6. Nous avons maintenant un autre exemple
avec la même image avec ce bal de fin d'année courant dans une ville cyberpunk vêtu
d'un costume de style cyberpunk, avec le mode standard 1.5, voici le résultat Et je ne vais pas mentir. J'aime bien le résultat
que j'ai obtenu avec la version 1.5, même avec le mode standard. Mais ma question est la suivante : cela n'a généré
aucune cyberpungité Nous n'avons obtenu qu'un
cube futuriste ou quelque chose comme ça, mais nous n'avons pas
eu de cyberpungity Maintenant, avec la même image
avec la même invite, en mode standard
1.6, c'est
le résultat que nous avons obtenu. Et même avec le mode standard, 1,6 contre 1,5 en termes de visuel et de qualité vidéo. Maintenant, avec cette même image
avec cet homme professionnel
fuyant une grosse explosion qui se produit dans la
caméra de fond qui le suit. Avec le mode standard 1.5, c'est le résultat. Et avec la même image
avec la même invite, mode d'appel d'offres
1.6,
voici le résultat. 1.6 sont plus performants en
termes visuels et en termes d'expression de l'
expression des personnes. Comme vous pouvez le constater, cette personne remarque l'explosion
et court vers l'explosion pour sauver des gens ou
quelque chose comme ça. Je pense que la 1.6
a également fait un travail vraiment fantastique dans
cette génération. Maintenant, vous pouvez vous demander
quel modèle utiliser ? 1,6, 1,5 ou 1,0. Maintenant, en termes de réalisme, si vous voulez créer des vidéos
réalistes, utilisez 1.6 car 1.6 est bien
plus réaliste que 1.5. Mais si vous
souhaitez générer un clip, c'
est-à-dire un mélange de réalisme ou
d'irréaliste, essayez 1,5 car 1,5
génère entre les deux Mais si vous voulez
essayer votre invite, si vous voulez expérimenter
avec l'invite
sans de perdre de
crédits supplémentaires, utilisez 1,0 car 1,0
générera avec dix crédits 1,5 et 1,6 vous coûtera
20 crédits par génération. Après avoir
expérimenté la génération 1.0, vous aurez peut-être une idée de ce à quoi
ressembleraient les vidéos
1.5 et 1.6. Voici donc ma conclusion. J'espère avoir répondu à ta question. Maintenant, si vous avez d'autres
questions dans ce cours, n'hésitez pas à me les poser. Je suis toujours disponible pour
répondre à vos questions.
28. Comment synchroniser les labiales avec Kling AI: Bon retour. Nous avons donc maintenant
une nouvelle mise à jour de Lip Sync. Nous avons maintenant une
section dédiée uniquement à la synchronisation labiale. Maintenant, ce qui est nouveau dans
cette mise à jour, c'est que nous pouvons télécharger la vidéo
afin d'essayer cette synchronisation labiale. Avant cette mise à jour, nous ne pouvions pas
vraiment mettre en ligne de vidéo. Nous devons générer une vidéo
afin de synchroniser cette vidéo avec les lèvres. Maintenant, si vous utilisez des
vidéos contenant plusieurs phases, comme
dans cet exemple, comme vous pouvez le voir, nous
avons plusieurs visages, l'IA ne
reconnaîtra aucune phase. Je recommande
donc d'utiliser cette vidéo
qui montre
clairement votre visage et qui ne
contient qu'une seule phase. Je vais maintenant
télécharger ma vidéo. Maintenant, une fois que vous aurez téléchargé votre vidéo, IA analysera votre
vidéo, puis
confirmera que cette vidéo utilise ou non la fonction de synchronisation
labiale. Vous pouvez donc clairement voir
mon visage dans cette vidéo, alors maintenant nous pouvons
chanter cette vidéo sur les lèvres. Maintenant, si vous voulez
changer de vidéo, si vous voulez
changer de vidéo, par
exemple, je ne
veux pas utiliser cette vidéo. Si je dois modifier ma vidéo, je dois cliquer ici
pour la sélectionner à nouveau. Et maintenant, comme vous pouvez le voir, nous pouvons sélectionner n'importe quelle vidéo que nous voulons. Il existe maintenant deux façons de synchroniser votre vidéo avec les
lèvres. Vous pouvez soit utiliser
la synthèse vocale, qui contient plusieurs
voix, soit
télécharger votre propre fichier audio pour
effectuer une synchronisation labiale. Maintenant j'ai tapé cette ligne. Passons maintenant au courrier
et diffusons cet audio. Salut. Je m'appelle
Faison. J'utilise King A. Maintenant, certaines voix ne peuvent pas
vraiment utiliser les émotions, et maintenant nous avons ce message. Une émotion neutre n'est pas
disponible avec cette voix. Nous avons donc plusieurs
voix qui ne peuvent pas vraiment utiliser l'émotion ou la neutralité. Vous devez donc sélectionner une voix différente afin d'
utiliser une émotion neutre. Salut. Je m'appelle Faison J'utilise King AI. Salut. Je m'appelle Faison Maintenant, parfois, certaines voix
contiennent ce message, donc vous ne pouvez pas vraiment
utiliser cette voix. Vous devez sélectionner
une autre voix. Salut. Je m'appelle Faizan J'utilise Kling Ai. Utilisons maintenant cette voix. Maintenant, vous pouvez également modifier
vos émotions. Choisissons l'émotion de colère. Salut. Je m'appelle Faizan J'utilise King Ai. Passons maintenant au rouge. Nous avons maintenant la synchronisation labiale. Voyons
le résultat final. Salut. Je m'appelle Pasan J'utilise King Ai. Nous sommes maintenant confrontés à un problème. Comme vous pouvez le constater, la
synchronisation labiale est hors du commun. Parce que si vous regardez attentivement
la vidéo originale, ma bouche bouge trop. C'est pourquoi l'IA a du
mal à remodeler mes lèvres
pour essayer la synchronisation labiale Maintenant, dans cet exemple, où je n'ai pas parlé du tout, comme vous pouvez le voir, les gars, ma
bouche ne bouge pas du tout. J'ai généré cette vidéo en utilisant
l'IA d'image à vidéo. Maintenant, j'essaie la synchronisation labiale sur cette vidéo et
voici le résultat final. Les gars, il y a tellement de
ballons dans ma chambre. Non, crois-moi, regarde ça. Maintenant, comme vous pouvez le voir,
les gars, la synchronisation labiale est incroyable dans cette vidéo. Nous avons maintenant un autre exemple. Donc, avec cette vidéo,
si je passe ce clip, la bouche bouge un
peu, pas trop. Et j'essaie la synchronisation labiale
sur cette vidéo, nous avons obtenu le résultat. Salut, voilà. Je m'appelle Faison et je vais créer
Pixar Comme tu peux le voir, mec,
la synchronisation labiale est dingue. Maintenant, comme je vous l'ai dit plus tôt, ne mettez pas en ligne une vidéo
contenant deux phases. Eh bien, j'essaie cela
et, étonnamment, dans l'IA, il suffit de sélectionner une phase. La raison en est que
celui-ci parle. C'est pourquoi Link se concentre
sur cette phase, et j'essaie de synchroniser les lèvres
sur ce personnage, et voici le résultat final. Vous pensez pouvoir créer des anime sans compétences
particulières ? Eh bien, oui, et je
vais vous montrer comment faire. Vous pensez pouvoir créer des anime sans compétences
particulières ? Eh bien, oui, et je
vais vous montrer comment faire. Nous avons maintenant un autre exemple
d'animation de style anime. Il s'agit de la source originale
où le personnage parle, mais pas trop, et c'est le
résultat final de Lip Sync. D'accord, une heure de travail,
et je suis prêt à partir. C'est un autre exemple, et c'est ma source
d'origine où la bouche de ce personnage ne bouge pas du
tout, et voici le résultat de la synchronisation labiale. Quelle belle journée pour une balade. Il faut continuer sur cette lancée. Nous avons maintenant un autre
exemple de mauvaise synchronisation labiale. Donc, comme je vous l'ai dit plus tôt, si votre bouche bouge
trop, comme dans cette vidéo et dans mon
précédent clip original, vous obtiendrez un
mauvais résultat de synchronisation labiale. Combien de fois dois-je
dire la même chose ?
Tu écoutes au moins ? Donc, si vous voulez essayer correctement la synchronisation
labiale, si vous voulez appliquer la synchronisation
labiale à votre vidéo, appliquez la synchronisation labiale à
cette vidéo qui contient le
moins de mouvements des lèvres. Donc, si vous faites
trop de mouvements de la bouche dans votre vidéo, vous obtiendrez de
mauvais résultats avec la synchronisation labiale. Voici donc comment vous pouvez utiliser
la synchronisation labiale, en utilisant Cling AI.
29. Éléments: Bon retour, tout le monde. Maintenant, si nous passons aux vidéos sur l'IA, nous avons une nouvelle fonctionnalité
appelée éléments. Et ce qu'il fait, vous pouvez
sélectionner plusieurs images, et il générera des vidéos
avec cette référence d'image. Prenons par exemple un exemple de base. Nous avons maintenant ces deux images. Maintenant, comme vous pouvez le voir, à partir d'ici, vous pouvez supprimer votre image, vous pouvez télécharger une autre image, et ici vous pouvez
sélectionner votre élément. Dans mon exemple, je souhaite
sélectionner cette image entière, mais par exemple, si vous
souhaitez sélectionner uniquement ce camion, vous pouvez également
sélectionner ce camion. Vous pouvez cliquer sur Confirmer, puis générer vos vidéos à l'aide de
ces éléments. Je vais maintenant sélectionner l'intégralité de
mon image. Pour ma deuxième image, j'ai sélectionné
cette voiture Ferrari. Nous allons donc maintenant faire une vidéo avec ces deux images. Je vais donc écrire un simple bal
de comme une Ferrari dans un champ. La fonction d'élément ne
fonctionnera donc qu' avec le modèle 1,6 ling. Si vous modifiez votre modèle en 1.5, vous ne pouvez pas vraiment générer
cette vidéo d'éléments. Si vous changez cela en 1.0, nous avons le même problème. ne pouvons donc désormais générer ces vidéos d'éléments qu'
en utilisant le modèle 1.6. Ainsi, avec le
mode professionnel sélectionné, nous pouvons générer cette vidéo. La vidéo est donc maintenant générée, et voici le résultat. Comme vous pouvez le constater, nous avons cette
Ferrari dans un champ. Et si je mets cette vidéo en pause, si nous ouvrons l'image d'origine, comme vous pouvez
le voir sur l'image d'origine, nous n'avons aucun nuage. Si nous ouvrons cette image, je veux que vous vous concentriez
sur le motif des nuages. Et dans le clip généré,
comme vous pouvez le voir, les gars, nous avons le même
schéma de nuages ici dans le ciel. Et nous avons ce champ
dans cette vidéo générée. J'espère donc que tu as compris l'idée. Voyons d'autres exemples pour mieux comprendre
cette fonctionnalité de cet élément. Dans cet exemple, nous avons deux images. Nous avons cette image,
un avion qui vole. C'est la référence. C'est l'élément, et
nous en avons un autre. Nous avons un style vectoriel de
personnage de moto au volant. Maintenant, j'ai tapé ce problème, un homme à vélo et un
avion qui passait par là Avec le mode standard de 1,6, nous avons obtenu ce résultat. Faites passer l'avion et nous
avons ce motocycliste Maintenant, pour générer
ce type d'images, vous pouvez utiliser les effets d'image Labstt de
Google Et comme vous pouvez le voir, les gars, si nous allons sur le Labstt Google, s'agit d'une donnée instantanée utilisée
pour générer cette image,
et ceci est une invite à saisir l'image d'un
motocycliste Maintenant, nous pouvons également ajouter un objet et nous pouvons
tout faire avec cet objet. Donc, par exemple, ici, comme vous pouvez le voir, les gars, c'
est mon image originale. Ici, nous avons
cet objet, un homme SWOT, de l'
IITA, qui se balance autour d'un
SWOT en mode Comme vous pouvez le voir, les gars, dans
cette vidéo générée, je fais pivoter cet objet Nous avons un autre exemple. Cette fois, il a également copié l'arrière-plan de
cet objet. Dans cet exemple, j'ai trois éléments. Ce que nous avons, c'est
l'image d'une voiture nulle part. Nous avons ce contexte et nous avons ce sujet. Et avec cette invite, avec mode professionnel
1.6, c'est
ce que nous avons obtenu. Il génère donc parfois
ce type de vidéos. Donc, dans ma génération suivante, j'ai saisi cette invite et avec le
mode standard, c'est ce que nous avons obtenu Maintenant, je supprime un élément
de ces éléments, et dans ma prochaine génération, c'est
ce que j'ai obtenu avec
ces deux éléments uniquement. Dans cet exemple, je n'ai que deux éléments un homme assis sur un canapé, et nous avons cette voiture, et je tape cette
personne assise sur un canapé à côté d'une
voiture abandonnée dans le désert. Et même avec le mode standard, comme vous pouvez le constater, les gars,
le résultat est incroyable. Donc, si je vous ai montré
cet exemple, c'est parce qu'
avec une simple invite, nous pouvons également générer des résultats
étonnants
en utilisant les éléments. Donc, pour résoudre vos problèmes, vous pouvez générer plus de vidéos. Vous pouvez modifier vos mots clés
ici et là. Maintenant, nous avons un autre exemple
avec la même image, et cette fois nous avons
cette voiture différente, et nous avons obtenu ce résultat. Carte sur le terrain.
Vérifiez ceci. Et cette fois, si on passe en mode
recadrage, comme vous pouvez le voir, les gars, je n'ai sélectionné que
cette partie de cette image. C'est l'élément
que j'ai sélectionné. Maintenant, dans cet exemple, nous
avons deux personnages d'anime, et j'ai saisi les deux en mode combat avec le mode standard, c'est
ce que nous avons obtenu Maintenant, parfois, lorsque vous
générez des vidéos à l'aide d'un élément, il faut que la référence
note exactement cet élément. Je vais prendre la référence de cet élément et cela va
générer une toute nouvelle vidéo. Donc, avec ces mêmes images, j'ai lié les deux combats l'
un à l'autre. Avec le mode standard, c'est
ce que nous avons obtenu. Comme vous pouvez le constater, il
prend la référence de ces deux personnages et
génère une toute nouvelle vidéo. Encore une fois, avec
ces deux éléments, si j'ouvre mon image, c'est mon élément numéro un, et c'est mon
élément numéro deux. Lorsque vous êtes assis sur une chaise, une grosse explosion se produit
en arrière-plan. Voici donc les données du bal
utilisées pour générer cette vidéo. Même avec le tableau debout, le résultat est assez convaincant. Vérifiez ceci. C'est insensé. Donc, une autre raison pour laquelle
vous n'obtenez pas le
résultat souhaité est que vous
utilisez les mauvaises images. Donc, dans cet exemple, comme vous pouvez le voir, les gars,
j'ai ces images, et nous avons ces
deux enfants qui font du vélo, et c'est un cycle étrange que j'ai généré à
l'aide de Labs Google. C'est le problème, et
c'est le résultat étrange. C'est un autre exemple, et c'est le dernier exemple. Assurez-vous donc d'avoir
sélectionné les bonnes images. Nous avons maintenant cet exemple. Dans cet exemple, j'
ai utilisé l'élément for, qui est le plus grand
élément que vous pouvez utiliser pour générer des vidéos à
l'aide de la fonctionnalité des éléments. Nous avons donc d'abord cette personne. Nous avons ce micro.
Nous avons cette voiture, et nous l'avons
en arrière-plan. Maintenant, pour ce qui est de mon message, j'ai tapé
Boy tenant un micro, assis dans une voiture
garée dans le désert, caméra zoomant lentement Avec le mode standard, c'est
ce que nous avons obtenu. Maintenant, avec un mode
professionnel avec exactement
les mêmes instructions et les mêmes
éléments, voici le résultat Nous avons maintenant un autre exemple
de l'élément le plus utilisé. Nous avons donc ces quatre éléments, et j'ai mis l'
accent sur la caméra sur un cycliste, puis sur l'avion, puis
sur la position debout de l'homme Avec le mode standard, c'est
ce que nous avons obtenu. Nous avons un avion cycliste. Et ici, nous
avons un homme, celui-ci. Maintenant, pour ma prochaine vidéo générée, je supprime l'arrière-plan, et voici ce que nous avons obtenu. Nous avons obtenu un résultat étrange. Donc, si nous obtenons cet effet de morphing dans la vidéo, c'est parce que j'
utilise le mode standard C'est pourquoi nous avons
cet effet de morphing. Maintenant, dans ma prochaine vidéo générée, je corrige mon
mot clé de la semaine ici et là, et cette fois, cela a légèrement amélioré
le résultat Nous avons l'avion Standing Man, et nous avons le cycliste. Vous pouvez donc également créer
une scène dynamique comme celle-ci
avec les éléments. Maintenant, dans cet exemple, j'ai également effacé à nouveau l'
arrière-plan. Et avec cette invite en mode standard, voici
ce que nous avons obtenu. Maintenant, pour une raison ou une autre, j'ai utilisé le mode
professionnel avec exactement
la même invite
et le même élément, et c'est ce que nous avons obtenu. Il vient de générer
cette toute nouvelle vidéo. Il prend la référence
de mes éléments, ne génère pas de vidéo avec exactement
le même élément, mais prend la référence
de mon élément. Vous pouvez également améliorer votre vidéo
générée. Comme vous pouvez le voir ici avec exactement
le même message avec ces images contenant cet élément, si vous passez à l'invite
négative, j'ai saisi le mot clé
que je ne veux pas apparaître dans ma vidéo
générée défiguration,
distorsion Nous examinons le résultat original, c'est mon clip original, et j'ai régénéré ce clip en utilisant
l'invite négative,
et voici ce que nous avons obtenu Comme vous pouvez le constater, le
résultat est beaucoup amélioré. Nous avons moins de distorsion, de
défiguration et d'effet de morphing dans cette
vidéo que dans Ceci est la
vidéo originale et découvrez la distorsion et la
défiguration de cette Et maintenant, regardez
la dernière vidéo. Désormais, vous obtiendrez également un résultat différent si vous
régénérez votre clip Comme vous pouvez le voir
dans cet exemple, nous avons ce contexte. Nous avons la carte Ferrati
et nous avons ce message. Avec le mode professionnel, nous avons obtenu ce résultat. Maintenant, avec le mode standard, il
me suffit de supprimer mon
mot clé ferratic d'ici, de placer ma voiture en premier, puis de placer mon arrière-plan en second.
C'est ce que nous avons obtenu. Maintenant, dans cet exemple, je place à nouveau ma voiture en premier
et je place mon arrière-plan second avec exactement le même
message. C'est ce que nous avons obtenu. Donc, la raison pour laquelle
je vous montre ceci est que si vous placez
votre arrière-plan en premier, il copiera
l'élément de votre arrière-plan et placera cet élément sur
votre deuxième image, votre deuxième élément. Expérimentons cela afin que vous puissiez mieux comprendre de
quoi je parle. Supprimons cette image. Supprimons également cette image. Et cette fois, je vais me
concentrer sur mon élément. Enlevons ce tapis et
cliquons sur Confirmer. Et nous avons la même image. Avec cette même invite
avec le mode stand, créons cette vidéo. La vidéo est donc maintenant générée. Ceci est un aperçu, et comme
je vous l'ai dit plus tôt, les gars, si vous placez votre
arrière-plan en premier, puis votre voiture, nous aurons moins d'arrière-plan
que dans l'exemple précédent. C'est l'exemple précédent, et comme vous pouvez le voir, les gars, nous avons l'arrière-plan en second. C'est pourquoi nous retrouvons tout
cet
élément de fond dans cette vidéo. Donc, si vous
voulez que votre arrière-plan soit
statique dans toute la vidéo, je
vous recommande voulez que votre arrière-plan soit
statique dans toute la vidéo, de le placer
à la fin de vos éléments. Si vous avez quatre éléments, placez votre arrière-plan
ici même dans le quatrième élément. Si vous avez deux images, que
vous souhaitez avoir un arrière-plan, placez votre élément sur la
seconde comme arrière-plan. Et si vous avez deux éléments, et si vous souhaitez
placer un arrière-plan, placez votre élément dans
le troisième emplacement d'élément. Maintenant, si nous allons dans
les laboratoires, sur Google,
voici les images
que j'ai générées et que j'utilise dans la conférence sur les
éléments. C'est ce que je demande
pour cette image. Pour ce contexte,
nous avons cette invite. Pour la voiture, nous
avons ce message. Pour le fond de l'anime, nous avons cette invite. Pour l'arrière-plan du
champ, nous avons cette invite. Pour l'image de la voiture, nous avons reçu cette invite. L'homme de l'anime, nous avons
cette simple question. Nous avons cette invite et
nous avons ce résultat. Nous avons cette image, et
voici l'invite. Et pour cette image, je tape cette invite. Pour l'image finale, avec cette invite, voici
ce que nous avons obtenu. Vous pouvez donc utiliser des laboratoires ou Google pour générer des images impressionnantes. Voici donc comment vous pouvez utiliser
les éléments de Ling AI.