Transcription
1. Aperçu du cours: Lol, tout le monde. Bienvenue dans la section de présentation des
cours d' AI 050 qui est une solution d'IA
générative avec laquelle est votre service Open AI Parlons maintenant de
ce cours. Maintenant, voici le cours sur le développement de solutions d'
IA générative, nous en avons
déjà discuté. Maintenant, tout d'abord, il
n'y a aucun examen spécifique que vous pouvez
planifier pour ce cours. Il s'agit d'un cours
destiné à vos connaissances, mais il n'existe pas d'examen en tant que tel, qui existe actuellement
pour ce cours. Mais maintenant, les gens me demanderont quel avantage nous obtiendrons
si nous suivons ce cours. Supposons que vous recherchiez une autre certification basée sur l'IA, peut-être AI 900 ou AI 1 ou 2. Ce sujet est commun à toutes les certifications basées sur l'
IA. Cela signifie que
c'est le sujet que vous trouverez dans chaque rubrique
en particulier. Pour chaque examen en particulier,
il s'agit d'un ou deux AI 900 AI. agit d'un service
Open AI important, un
service important de Microsoft si vous souhaitez créer des solutions d'IA
génératives. Je dirais qu'il s'agit d'un
cours particulier important. Maintenant, quelles sont les choses abordées dans ce cours,
comprenons-nous ? Ce sont les modules abordés dans ce cours, Deploy Open A resource
et OpenAI model Vous pouvez développer, vous savez, les différents modèles
existent quand il s'agit
de cette OpenAI, comme le modèle GPT, les modèles d'
intégration existent, le modèle
Dali est là, comment générer le code, comment générer
ce que l' on appelle des images en fonction Vous trouverez donc de nombreux modules
différents ici, modèles
étranges ici. Vous trouverez également ce on appelle un grand modèle de langage. Nous avons parlé de ce que sont exactement les grands modèles linguistiques. Et vous
verrez également comment vous pouvez également utiliser ce service Open AI
avec vos données. Open AI est un service
basé sur Microsoft où vous pouvez créer
du contenu générateur Vous devez avoir vu des
applications comme CAT GPT Copilot Cela repose
entièrement sur les applications génératives basées sur l'
IA. Nous pouvons créer ces applications basées sur l'
IA en utilisant ce
service particulier Colles Open AI J'espère que cette partie est claire, les gars. Merci à tous.
2. Qu'est-ce que l'IA générative: Bonjour, tout le monde. Aujourd'hui, nous allons donc parler de l'
IA native. Parlons-en. L'IA native est donc une catégorie de capacités au sein
de la solution d'IA qui crée une réponse semblable à celle d'un humain ou qui
crée un contenu original. Il peut créer le
contenu dans
divers formats tels que
votre langage naturel. Il peut générer des images. Je peux aussi faire une
génération de code. Par exemple, génération de
langage naturel, décrivez qui crée
le contenu original. Par exemple, dans l'application dont
vous avez sûrement entendu
parler de copilot ou de CA GPT, où vous indiquez ce que vous
recherchez , vous
fournissez Disons, pouvez-vous rédiger
une description de poste pour un responsable ou un associé du développement des
nuisibles ? Vous en tirez la réponse,
et c' est assez similaire
au contenu original ou à la réponse
humaine. C'est là que l'UE peut utiliser cette
fonctionnalité appelée IA active. Maintenant, le second
est la génération d'images. Par exemple, certaines applications basées sur l'IA
génératrice d'applications peuvent prendre une réponse, une demande humaine et générer
une image appropriée. Par exemple, vous pouvez accéder à
cette barre oblique créée par bing.com, où vous direz que je veux cette image en particulier basée
sur ce texte en particulier Vous fournissez le
texte et vous
obtiendrez une image basée sur votre texte. Vous pouvez voir qu'il s'agit d'un
arc-en-ciel ou d'une cascade, et cela générera
une image pour vous. Il peut également faire ce que l'on appelle une génération de code, laquelle vous concevez ou aidez vos développeurs de logiciels à
écrire des codes. Par exemple, je peux donner les
instructions comme bon me semble, écrire le code Python pour
multiplier deux nombres, et cela générera
un code python pour moi. C'est là que nous pouvons également
créer un langage naturel, donner des images et
générer du code Maintenant, comment fonctionnent ces applications génératives d'
IA ? Ou qu'y a-t-il exactement dans les
coulisses ? Dans les coulisses,
ces applications génératives
basées sur l'IA
sont donc ces applications génératives
basées sur l'IA alimentées par de grands modèles
linguistiques. Ne vous inquiétez pas, vous n'avez pas
besoin de vous y attarder en profondeur. question relative
au LLM ne vous sera posée lors de l'examen, mais il est bon de connaître les
grands modèles linguistiques Maintenant, les grands modèles de langage suivent essentiellement cette architecture de modèle de
transformateur. Maintenant, il y a trois
étapes dans cette architecture.
L'un d'eux est la canisation. Supposons que vous ayez la
déclaration telle qu'elle est ici. J'ai entendu un chien se garer
bruyamment sur un chat. Ainsi, chaque
mot se verra attribuer une valeur de texte unique
ou un numéro de texte. Comme vous pouvez le voir, moi, le jeton entendu est
deux, A est trois. Maintenant, A se répète
deux fois ici, mais on lui donne un
seul chien symbolique de cinq. Ainsi, chaque mot, chaque signe
n'est rien d'autre qu'un mot
ou une partie de quoi. Et la technique qui consiste à décomposer votre texte en jeton
s'appelle une tokenisation C'est la première étape de vos grands
modèles linguistiques. Maintenant, c'est quoi ça ? Maintenant, ce ne sont que des chiffres. Comment créer une relation
entre ces chiffres ? C'est là que nous avons une deuxième méthode
appelée incorporation. C'est là que se trouve maintenant cette intégration
particulière,
comme vous pouvez le voir, ce skateboard, nous avons des valeurs
multi-tableaux
ici. Nous créons donc une relation
entre ces jetons après cette première étape tokenisation
appelée C'est là que nous créons une
relation entre les jetons. Maintenant, la troisième étape consiste à
saisir la force
de la relation entre les
jetons et l'attention, attribuant plus de poids à la tête et au
chien. Et imaginez que j'ai entendu
un chien s'appeler Victor. C'est ainsi que ces applications d'IA
générative sont basées sur de grands modèles
linguistiques, le LLM Maintenant, qu'est-ce qu'une IA ouverte alors ? Maintenant, pour utiliser votre application
basée sur l'IA générative, vous devez utiliser un service
appelé ASR Open AI, alors que
votre OpenI est solution
basée sur
Microsoft Cloud pour déployer ces grands modèles
linguistiques C'est là que nous les utiliserons en tant
que services OpenA. Nous parlerons donc
davantage du service OpenA. Comprenons-le. Ainsi,
dans le service ASR OpenA, il existe déjà des modèles
pré-entraînés Vous n'avez pas besoin d'
écrire ces modèles de LLM. Il existe déjà
des modèles entraînés. Par exemple, vous pouvez utiliser quatre modules
GPT pour la génération de votre langage
naturel Si vous souhaitez créer
une application telle que CA GPT ou copilot, vous pouvez utiliser le modèle CPT, permet également
de générer
et de comprendre le langage naturel
et le code Ainsi, pour la génération de code ou pour la génération de
langage naturel, vous pouvez utiliser le modèle GPT four Modèle d'intégration que vous
pouvez utiliser si vous souhaitez convertir votre texte en forme vectorielle
numérique Vous pouvez utiliser un modèle
appelé Dal qui
permet de récupérer les images
à partir du langage naturel. Ces modèles
LLA sont donc déjà présents dans
votre service Open AA. est très important du point de vue de l'
examen C'est très important du point de vue de l'
examen
et de l'utilité de tous les modèles que
vous utiliserez, disons pour la génération du
langage naturel. Vous pouvez utiliser le GPT. On peut
se demander quel modèle vous
utiliserez si vous souhaitez
générer les images à partir du langage naturel, vous pouvez utiliser un modèle Dally Nous allons donc utiliser
ce service Open AA. D'accord. Nous en
parlerons donc plus en détail en tant que service Open AA lors
de la prochaine conférence. J'espère donc que cette partie est
claire. Merci à tous.
3. Azure Open AI: Payez un. Nous allons donc en savoir
plus sur le fait de devenir
votre service Open A dès maintenant. Maintenant, le service Pen A
n'est pas disponible
pour tous les clients. Vous devez demander l'accès
à votre service Open AA. Maintenant, comment
faisons-nous ? Vous pouvez maintenant utiliser ce formulaire pour demander l'accès à ce service AR
Open EA, ou vous pouvez accéder à cette URL, et il y aura
un formulaire Microsoft. Maintenant, ce n'est pas comme si
vous deviez
demander l'accès et
qu'on vous l'accorderait. Non. C'est d'
abord pour les entreprises. Ce n'est pas seulement pour des raisons
pratiques, vous demandez l'accès
et vous serez accordé. C'est pour les entreprises
qui créent
des applications basées sur l'IA générative, et elles verront. Et ce, si votre entreprise est
éligible à cet accès au
service Open EA ou non. Maintenant, pourquoi cet accès est limité, simplement à cause de certains des principes
responsables de l'IE. Certaines personnes peuvent
également
utiliser cette application
de manière nuisible,
et une grande puissance de
calcul utilisée dans le pground
pour ce service Open AA Tout le monde n'aura donc pas
accès à ce service OpenA. Vous devez d'
abord remplir le formulaire. Et après un certain temps, vous serez informé si vous avez accès à ce service
Open AA ou non. C'est donc uniquement pour les entreprises. Ce n'est pas comme si vous pouviez donner à
votre adresse e-mail une adresse e-mail
personnelle et l'accès vous sera accordé, non. Maintenant, laissez-moi
vous présenter ce formulaire ainsi que
son apparence exacte. Maintenant, j'appuie simplement sur R
dans le navigateur, et c'est la page
qui a été ouverte, demande l'accès au service
SR OpenA Comme vous pouvez le voir
ici, vous devez
fournir votre prénom, votre
nom de famille, nombre d'abonnements
que vous avez, votre identifiant, nom de
votre
entreprise, votre adresse e-mail et tout ce que vous
devez fournir ici. Donc, tous les détails
que vous devez fournir. Ensuite, vous serez
informé si vous
avez accès à ce service
Open EA ou non. En raison du principe
d'
intelligence artificielle responsable et de la puissance de
calcul utilisés dans le pack, tout le monde
n'
a pas accès à ce service Open EA, n'est-ce Mais nous avons un accès
pédagogique à ce service
Open AI en particulier, où je voudrais
vous montrer une petite démonstration expliquant comment utiliser le modèle
GPT ou le modèle D, quoi ressemble exactement ce studio Open
AI Je voudrais donc vous montrer dans
la prochaine conférence comment
exactement nous pouvons créer le service
Open AA, et ce qu'il y a exactement
dans le studio Open AI. Merci à tous. J'
espère que cette partie est claire.
4. Démo Azure Open AI: Bonjour, tout le monde. Aujourd'hui, nous allons donc faire une démonstration
d'Azure Open EA. Donc, comme je vous l'ai dit, Open EA something n'est pas disponible
pour tous les clients. Vous devez demander
l'accès à ce service, et il est réservé aux
entreprises qui
créent l'application de base Native
AI. J'ai donc accès à ce service Open EA
parce que nous avons obtenu l'accès aux instructions
uniquement pour présenter une démo afin que vous puissiez voir à quoi ressemble le studio
Open AA Permettez-moi donc de vous emmener sur le portail
SSR et de vous
montrer exactement ce que nous pouvons faire dans le cadre de
ce service Open AA C'est bon. Je suis
donc sur le portail SCR, et je vais chercher un service, disons, appelé Open AI Je souhaite créer
un service Open A. Et
attendons-le. C'est bon. Le service postal arrive
donc sous le nom d'Open EI. Je vais cliquer sur ZO
Open. C'est bon. Je vais donc cliquer sur créer
une section ici. Je souhaite créer
ce service Open A. C'est bon. Je vais donc sélectionner un
groupe de ressources ici. Je vais sélectionner, disons, liste
Open AI
huit ou deux. Je vais sélectionner
le niveau de tarification fonction du nombre d'appels pouvant être
effectués, standard D zéro. Les choses sont tout à fait les
mêmes lorsque nous créons les autres services d'IA. Je vais utiliser les paramètres
par défaut. Je clique sur vi plus create, et nous allons maintenant créer
ce service Open AA. Il suffit de l'attendre. C'est bon. Je vais donc cliquer sur Créer maintenant et attendre que le déploiement
soit terminé. C'est bon. La ressource
a été déployée. Je vais cliquer sur Accéder à
la ressource ici. Je peux aller dans ce studio Open AI. C'est bon. Maintenant fonctionne le service
Open A ? N'oubliez pas que cela n'est disponible
que dans la région de Stine. L'est est l'une des régions
où j'ai été déployé. Donc, si vous pouvez le créer dans
différentes régions,
vous n'aurez peut-être pas accès à ce service Open A car il n'est disponible que pour les
régions tachées. Supposons donc que je
veuille créer
des modèles dans ce studio Open E
en particulier. Je souhaite créer des applications génératives
basées sur l'IA. Je clique donc sur
Open A Studio. Passons à cet Open A Sudio. C'est bon. Voici donc à quoi ressemble le studio
Open AI. Vous avez donc le modèle Te, comme vous pouvez le voir sur le côté
gauche, qui
générera les images
en fonction de votre texte. Vous avez également le terrain
de jeu de discussion ici, où vous pouvez avoir une fonctionnalité similaire au
chat. Vous disposez d'une
fonctionnalité de complétion que vous pouvez tester. Il y a donc beaucoup de
choses que vous pouvez faire. Disons que je souhaite créer une
fonctionnalité de chat ici. Disons que je souhaite
créer un modèle GPT lequel je peux discuter avec une application
particulière C'est assez similaire à une application basée sur un copilote
que j'essaie de créer Je vais donc cliquer sur ce
terrain de discussion ici, tout d'abord. C'est bon. Avant de pouvoir
utiliser le Chart Playground, vous devez créer un déploiement. Je vais donc cliquer sur ce bouton pour créer un déploiement. Je vais
sélectionner le modèle. Je vous ai donc dit qu'il existe déjà modèles d'
IA générative
pré-entraînés. Supposons que je veuille utiliser
ce GPT quatre, vous savez que le GPT 40 est un modèle le
plus récent que vous pouvez Supposons que j'opte pour ce
modèle où il est écrit GPT 35 à 16 K. Et je dis que nom de mon déploiement
est, disons, je veux créer une application
basée sur le chat Je dirais donc application
basée sur le chat 01, c'est le nom
de mon déploiement. Et faites défiler la page vers le bas, et
créons-le. Attendons maintenant que
ce déploiement soit tout d'
abord terminé. Et nous avons utilisé le modèle
GPT ici. Les
modèles pré-entraînés sont donc là. Maintenant, vous pouvez le voir ici. Cela m'a donné. D'accord. C'est ainsi
que le test de démarrage du chat permet de tester votre assistant si
vous lui donnez simplement une obtenez-vous la
réponse ou non ? Maintenant, ce que je peux faire,
c'est qu'il y a quelque chose d'important ici. tu peux dire.
Message du système, très, très important. Et si vous cliquez sur l'infobulle, message
système est
que vous donnez au modèle les instructions
sur la façon dont il doit se comporter Supposons qu'actuellement, en ce
qui concerne les messages du système, vous êtes un assistant d'intelligence artificielle qui aide les gens à
trouver des informations. C'est à cela que le
message système est configuré, indiquant comment vous devez vous comporter lorsqu'un
utilisateur interagit avec vous. Supposons que je veuille
changer le fait que vous soyez un assistant d'IA qui aide les
gens à découvrir les cours de SR, exemple, disons que
c'est celui-ci, que
vous devez vous comporter ainsi, et tout autre. Disons que j'écris d'autres informations,
répondez par un emerge et dites que vous n'en avez aucune
idée. C'est, je
dis, mon système d'IA. C'est ainsi que tu dois te comporter. Il s'agit du message du système. Donc, si vous cliquez sur cette infobulle, vous trouverez des instructions Vous pouvez en savoir plus à ce sujet. Quels sont exactement les messages
du système ? Une fois que c'est fait,
vous pouvez cliquer sur ce bouton Appliquer les modifications ici
au message de votre système. Je dis que vous mettez à jour le message de
votre système. Oui, cliquez sur Continuer
et attendez. Maintenant, une fois que c'est
fait, vous pouvez vous déplacer vers le bas et avant de
tester votre requête. Vous pouvez fournir votre
requête ici, et vous obtiendrez essentiellement une réponse de votre assistant. C'est bon. Testez maintenant
la fonctionnalité. Vous devez donc
attendre un certain temps une fois que vous avez mis à jour le message
système. Disons que j'ai
attendu 5 minutes. Maintenant, après cela, je peux
fournir quelques questions. Disons que je dis que
toute information sur, disons, la politique, je la
dis à mon assistant. Maintenant, mon assistant
va me répondre. Je suis désolée, mais je n'ai
aucune information politique. Disons donc que je dis ça. Quelles informations pouvez-vous
fournir Maintenant, attendons-les. Vous voyez que cela signifie que je
peux fournir des informations sur une grande variété de sujets
liés à la RS, n'est-ce pas ? Parce que nous avions défini le message système selon lequel vous aidez les gens à
découvrir les cours ZR. toute autre information,
veuillez répondre par une réponse émergente et dire que vous n'en
avez aucune idée, n'est-ce pas ? C'est là que vous pouvez utiliser le message du système qui
ressemble à ce que devrait être l'IE. Il existe également différents
modèles Supposons que vous souhaitiez
utiliser le modèle Dal, où vous souhaitez générer
l'image en fonction de votre texte, vous pouvez également utiliser ce modèle
Dal. C'est là que vous pouvez utiliser les différents types
de modèles génératifs, les modèles d'IA
génératifs, en
tant que service Open AI. J'espère que cette partie est claire.
Merci à tous.
5. Paramètres et exemples Azure OpenAI: Nous voulons. Aujourd'hui, je
voudrais donc parler de certains des paramètres importants ce qui concerne votre IA ouverte. Parlons de
ces paramètres. Lorsque vous vous rendrez dans
votre studio d'IA ouvert, vous aurez plusieurs paramètres
tels que la réponse maximale. Cela limitera le nombre de jetons que la réponse
peut inclure. Disons que vous voulez
cette réponse. Chaque fois que vous discutez avec quelqu'un, disons un mode chat
dans le studio Open A. Vous indiquez que c'est
quelque chose que vous recherchez. Vous souhaitez minimiser
le nombre de mots ou le
nombre de jetons, puis vous pouvez réduire la valeur de ce paramètre de
réponse maximal. Cela signifie que vous pouvez
limiter le nombre de jetons ou, en d'autres termes, ce sont les mots que
vous limitez. C'est ce qu'on appelle une réponse
maximale. D'autres paramètres
appelés température. Il contrôle le caractère aléatoire. Cela signifie que vous allez essentiellement configurer une
partie de la valeur avec un nombre plus élevé, ce qui produira une réponse moins déterministe
et une sortie plus aléatoire En gros, vous pouvez
configurer
certaines valeurs de ces températures. Paramètre. Disons que vous voulez que chaque fois la
réponse soit aléatoire. Vous voulez cela,
disons que vous
recherchez peut-être un sujet
appelé politique S. Vous recherchez une
sorte de réponse, et vous voulez chaque fois que vous
voulez une sortie aléatoire, celle où vous pouvez essentiellement augmenter cette valeur de
cette température. Plus le nombre est
élevé, plus vous obtiendrez de résultats aléatoires qui contrôlent température, plus le
caractère aléatoire ici Maintenant, le troisième est le top. C'est à peu près la même chose que
la température. Comme vous pouvez le constater. Il ne contrôle également le
caractère aléatoire que de la même manière, mais d'une
manière différente en termes de température Mais c'est assez
similaire. Si vous voulez
contrôler le caractère aléatoire, il est toujours
conseillé d'
essayer l' un ou l'autre, mais pas les deux, c'est ce que
vous devez garder à l'esprit Maintenant, il y a deux autres paramètres
que je veux aborder
, appelés pénalité de
fréquence. Il se concentre sur la
fréquence de répétition d'un mot. Disons que j'ai demandé peut-être en mode
graphique et que je réponds que,
s'il vous plaît, veuillez me fournir quelques
lignes du côté du parc, cela a généré
quelque chose comme ça. Aujourd'hui, je suis allée au parc,
le parc était magnifique. J'ai apprécié le parc. Vous pouvez voir qu'il y a beaucoup
de parcs, c'est quelque chose. Vous pouvez voir que cela se
répète assez fréquemment ici. Ce qui peut sembler répétitif. Pour résoudre ce problème,
vous pouvez utiliser un paramètre appelé pénalité de fréquence.
Cela pourrait être appliqué. Plus la fréquence est élevée,
cela signifie qu'il sera moins probable que les mots courants soient
générés. Si vous réduisez la pénalité de
fréquence, le modèle
sera plus susceptible de générer
des mots courants. Vous devez augmenter la valeur de cette
pénalité de fréquence ici. Vous pouvez voir que dans
cette capture d'écran, nous discutons de la
réponse maximale, de la température, nous discutons du top P, nous avons discuté de la pénalité de
fréquence, et il y a
encore une chose
appelée pénalité de présence. Maintenant, c'est quoi ? Il se concentre également sur l'occurrence, mais il se concentre principalement sur
l'occurrence du mot. Le mot « occurrence » ici. Parlons-en maintenant. Maintenant, contrairement à votre pénalité de
fréquence qui voit combien de
mots ce mot en particulier est
apparu, combien de fois le
mot est apparu. Mais il se concentre sur chaque mot. Cela signifie qu'il se concentrera
essentiellement sur chaque mot en particulier, n'est-ce pas ? Quel que soit le nombre de
fois où il a été utilisé. Il tentera d'augmenter
la probabilité d'introduire de nouveaux
sujets dans une réponse. C'est ce qu'est la pénalité
de présence. Il ne voit pas la fréquence, il vérifie qu'il ne
vérifie pas combien de fois
un service est apparu. Cela n'a été déclenché que par la
simple apparence de la salle. Peu probable quel que soit le
nombre de fois où il a été utilisé. C'est là que cela s'appelle
une pénalité de présence, comme vous pouvez voir la
valeur ici. Maintenant, laissez-moi vous
emmener dans le studio ouvert et vous montrer ces paramètres. Laisse-moi t'
y emmener. C'est bon. J'ai donc déjà créé un service Open EA et je suis
dans mon studio Open ES. C'est donc quelque chose que
vous
connaissez pour accéder à
Open EA Studio All. Mais disons ici que je veux d'abord effectuer le déploiement
parce que tout d'abord, nous aurions besoin d'
un déploiement. Supposons que je fasse une démonstration
et que je crée un déploiement. Je dirais donc que je
veux utiliser un graphique GPT, ce modèle GPT 35 à 16, et le nom du déploiement est,
disons, pour mes paramètres Déploiement des paramètres, et c'est ce que je veux,
et créons-le. Attendons cette création. C'est bon. C'est fait. Passons au
mode chat ici, au de jeu de discussion ici. Et ici, si
vous faites défiler l'écran vers le bas, vous pouvez voir ces
paramètres, où vous pouvez contrôler
le caractère aléatoire, où vous pouvez contrôler
la fréquence des mots,
les différents autres paramètres, comme vous pouvez le voir, n'est-ce pas ? Donc, fréquence, si vous
augmentez le nombre de valeurs de
ce paramètre de pénalité de fréquence, signifie
qu'il est plus probable qu'il
ne répétera pas le mot, il ne répétera pas ces mots. Mais si vous le faites simplement
défiler jusqu'au niveau zéro, cela signifie
qu'il
utilisera probablement les mêmes mots à nouveau,
et encore une fois, c'est là que se situe cette pénalité de
fréquence, n'est-ce J'espère donc que lorsqu'il
s'agit de ceux-ci, les paramètres sont
très importants. Une dernière chose dont je voudrais
parler ici, c'est si vous faites défiler la page vers le haut,
disons que vous dites que
vous êtes un système EA. C'est ce que je suis en train de configurer un message système indiquant comment
votre IE doit se comporter. Je l'ai configuré
ici pour aider les
gens à trouver des cours de SRO Disons qu'il s'agit
essentiellement d'un message système, et vous pouvez cliquer sur
ce bouton pour appliquer les modifications. Mais si vous voulez donner quelques exemples à cette IA
quant à la façon dont elle doit se comporter, vous l'avez déjà définie
dans le message système. Mais si vous voulez
donner un exemple, vous pouvez en ajouter un
ici. Si quelqu'un le demande,
proposez-vous des cours AWS ? La réponse devrait donc être quelque chose comme « je
n'en sais rien ». Je n'en ai aucune idée. C'est ce qu'on appelle quelques plans ou vous pouvez dire un exemple de plan, quelques plans signifient, vous pouvez ajouter exemple
et un plan signifie que vous ne donnez qu'
un exemple de plus. C'est donc une bonne stratégie
que vous pouvez utiliser lorsqu'il s'agit de quelques exemples de prises de vue
et de paramètres, où vous pouvez contrôler le
caractère aléatoire et attribuer de
nombreux types de
sorties génératives que vous pouvez générer J'espère que cette partie est claire.
Merci à tous.
6. Intégrez Azure OpenAI dans votre application: Bonjour tout le monde Aujourd'hui, je souhaite vous
montrer une démo sur Open AI uniquement, mais sur la façon dont vous pouvez l'intégrer en tant que service Open AA
dans votre application. Jusqu'à présent, nous l'avons
déjà vu, vous pouvez accéder au service
Open AA tant que portail
et vous pouvez accéder
au studio Open AA pour créer des déploiements
et discuter où vous
pouvez configurer les messages
du système et tout Mais disons la même chose que vous voulez faire à partir de
votre application. Disons qu'il existe une application basée sur
SSH
ou une application basée sur Python Comment utiliseriez-vous Open AI ? En gros, nous voulons dire,
disons que j'ai une application
basée sur Python, que
je souhaite intégrer le service
Open Ei. C'est donc ainsi que
nous allons procéder. Permettez-moi de vous emmener au code de Visual
Studio, tout d'abord, où j'ai déjà une application de base
Python. C'est bon. Je suis donc dans le Visual Studio. C'est l'application
que nous allons utiliser où vous pouvez voir que
nous avons le service Open E, terminaison
Open AI, et toutes
ces choses sont là. C'est bon. Tout
d'abord, ici, vous devez
comprendre que ce package est votre Open AA. Donc, si vous voulez travailler
avec le service Open AA, agit d'une application
basée sur Python, vous avez besoin d'un package. Laisse-moi ouvrir le
terminal ici. Vous n'avez pas besoin d'entrer
dans ce code. C'est juste que je
vous montre comment vous pouvez également intégrer le service Open AA à vos
propres applications. Laissez-moi d'abord ouvrir le
terminal, attendons-le.
C'est à venir maintenant. Donc PIP install,
le nom du package, si vous voulez travailler
avec les services
Open AA, Open AA, le nom du
package est OpenA ici, je fournis la version
que je recherche Si vous ne fournissez pas
la version
, la dernière version sera supprimée. PIP est un gestionnaire de paquets en Python. Tout comme sous Linux,
si vous l'avez vu, vous installez une
sorte de package par une application. De même, en Python, si vous
souhaitez installer un package, agit du gestionnaire que vous utiliserez
ou, en d'autres termes, la commande
que vous utiliserez avec PIP install, le
nom du package C'est ce que vous allez
utiliser. Permettez-moi tout d'abord d' installer ce package
et de l'attendre. Ce package est nécessaire si vous devez utiliser
le service Open AA. Attendons donc ce
package. C'est bon. Donc, dans mon cas, cela
est déjà installé, comme vous pouvez le voir, cela signifie
que l' exigence est
déjà satisfaite, donc c'est déjà
installé dans mon cas. Mais maintenant, je vais vous
montrer le code. Maintenant, le package que
nous avons installé Open AI est en train d'importer. Ce package
contiendra donc un grand nombre de fonctions de classe et
toutes ces choses. Nous importons donc
cette classe particulière, vous pouvez dire qu'il s'
agit de votre Open AI, et c'est ce que nous faisons. Donc, ici, il y a un
fichier appelé Dot ENV. Ici, vous devez fournir la clé de votre point de terminaison
et le nom de déploiement. Vous pouvez accéder au portail ZR. Vous pouvez voir ces points de terminaison
et ces clés ici. Vous pouvez copier ces clés et terminaison ici, ainsi
que le nom du déploiement. Si vous ne savez pas comment
copier les clés et le point de terminaison, je vous le montrerai dans
quelques minutes. Une fois que vous avez fourni
ces informations ici, ce que nous
essayons de dire,
c' est de charger les informations qui s'y trouvent dans
le fichier point ENV Il s'agit d'un
paramètre de configuration que nous sommes en train de définir. Une fois cela fait, nous
initialisons le client Open AI Comme vous pouvez le voir, nous
fournissons le nom du point de terminaison, c'est
celui-ci et toutes ces
choses que nous fournissons. Voici le message du système. Si vous vous souvenez bien, dans Open AI, nous avions ce qu'on appelle
un message système indiquant comment une IA doit se comporter. C'est ici que je définis le message de
mon système. C'est assez similaire à ce que nous faisions dans
le studio Open AI. Maintenant, si je fais défiler la page vers le bas, nous prenons l'entrée de l'utilisateur, c'est
ce que vous voulez. C'est donc là qu'une fois que l'
utilisateur a fourni quelque chose, nous l'envoyons à un modèle d'IA ouverte
particulier. Comme vous pouvez le voir, le message
système est ce que nous envoyons essentiellement un message système en haut, c'
est-à-dire celui-ci, ce
message en tant que message système, et un message utilisateur est quelque chose
que l'utilisateur fournit. Il s'agit donc de différents
types de rôles. Le rôle du système signifie donc la
façon dont l'IA doit se comporter et l'
utilisateur signifie l'utilisateur qui
interagira avec
votre assistant IA. Ensuite,
quel que soit le
texte généré, nous imprimons essentiellement cette
réponse particulière ici. C'est ce que nous faisons
dans cette application. Donc, pour cette application, je voulais juste vous
montrer comment nous pouvons interagir à partir de notre propre application de base Python ou CCA et nous connecter
à ce service Open AI J'espère que cette partie est claire,
les gars. Merci à tous.
7. Comment récupérer les clés et le point de fin du service OpenAI: Tout le monde. Je veux donc
vous montrer une démonstration très rapide de cette méthode pour obtenir les clés et le
point de terminaison du service E AA, et ici, nous
parlerons du service Open AA. Supposons donc que je fasse une
recherche en tant que service Open AA. J'ai déjà créé un
service. Vous pouvez voir ce
service Open AA que j'ai déjà créé. Vous pouvez le voir ici,
le nom du service. Si je clique sur ce service, vous pouvez accéder à celui-ci sur le
côté gauche , gestion des ressources. Oh, ici, les clés et le point de
terminaison seront affichés. Il s'agit donc des clés et du point de terminaison que vous devez fournir
dans votre application, que vous
utilisiez une application de base
CSA
ou une application de base Python C'est ce que vous devez copier. L'une ou l'autre des clés que vous pouvez
copier et le point final. Il s'agit du point de terminaison
que vous pouvez copier ici dans
votre application. De plus,
pour le service Open A,
vous aviez également besoin d'un
nom de déploiement. Vous pouvez donc accéder au studio
Open AA et créer un déploiement et vous pouvez également
copier
le déploiement là-bas. J'espère donc que cette partie est
claire. Merci à tous.
8. Qu'est-ce que l'ingénierie rapide: Bonjour, tout le monde. Aujourd'hui,
je vais parler d'un concept appelé Qu'
est-ce que l'ingénierie rapide ? Comprenons ce qu'est exactement
une ingénierie rapide. Et c'est un concept très
important lorsqu'il s'agit de cette IA. Supposons que vous utilisiez
une application basée sur l'IA, disons charge ou copilote, et que vous demandiez quelque chose
à cette . Que se passera-t-il,
vous obtiendrez une réponse. Mais si vous voulez des résultats
plus précis et plus pertinents, essayez d'être plus descriptif. C'est là que vous offrez
le style que vous souhaitez. En gros, lorsque vous
envoyez une demande
au copilote chargé, ces outils essaient de maximiser la pertinence
en étant de
nature descriptive ou en essayant fournir la précision
que vous souhaitez Permettez-moi de vous donner un
exemple ici. Maintenant, disons que j'ai
deux exemples
ici sans ingénierie rapide et avec ingénierie rapide. Maintenant, disons que je dis
simplement cela. Parlez-moi du concept
d'intelligence artificielle. Cela va générer ce
genre de choses. L'intelligence artificielle
est une simulation de l'intelligence humaine et
des machines. C'est ça. Mais si c'est avec une ingénierie rapide, je fournis une invite
particulière plus descriptive. Expliquez le concept d'intelligence
artificielle en utilisant un langage simple
adapté à un Bagner Cela signifie qu'ici, j'
essaie d'être plus descriptif afin d'obtenir des résultats pertinents
et précis. Vous trouverez
donc ici des réponses
telles que l'
intelligence artificielle, comme apprendre aux
ordinateurs à apprendre à
prendre des décisions par eux-mêmes, de la
même manière que les hommes. Maintenant, vous pouvez voir
essentiellement la réponse. Ils sont très attachés à
une ingénierie rapide. Le concept est très
simple à comprendre. C'est là que vous essayez
d'être plus descriptif. Permettez-moi de vous donner
un autre exemple. Disons, je dis simplement cela, que je veux un tableau au format
Markdown avec trois fournisseurs de cloud
avec la description Maintenant, il va générer
ce genre de tables pour moi. Si vous
dites simplement que je veux de
ce fournisseur de cloud en particulier nom et la description de
ce fournisseur de cloud en particulier, nous ne
vous fournirons pas le tableau ou
quoi que ce soit d'autre. Mais si vous voulez le tableau,
essayez d'être plus descriptif, disant que je veux un tableau en markdown pour celui-ci. C'est ce que
tu recherches. L'ingénierie rapide consiste à essayer d'
être plus descriptif si vous
voulez un résultat précis , un résultat
pertinent. J'espère donc que le concept d' ingénierie
rapide est
clair. Merci à tous.
9. Générer du code avec Azure OpenAI Service: R un. Dans cette conférence, nous verrons comment vous pouvez également générer du code avec
votre service Open Eye. Parlons de ce qu'est exactement
cette génération de code. Maintenant. Désormais, vous ne pouvez utiliser que des instructions en
langage naturel, comme vous pouvez utiliser le concept d'ingénierie
rapide pour décrire clairement ce que
vous voulez Nous avons déjà
discuté de l'ingénierie rapide. Si vous souhaitez obtenir une réponse pertinente, essayez d'être plus
descriptif afin obtenir la réponse
que vous recherchez. Disons que dans cet
exemple, je dis que vous devez écrire une fonction pour la recherche
binaire et c'est dans
ce langage que je
parle en Python. Cela va donc générer
un code pour moi. Maintenant, même chose si vous l'
aviez voulu en C Sharp, vous auriez écrit
une fonction
pour une recherche binaire en C Sharp, peut-être dans un langage de
programmation différent. Vous devez utiliser le concept
d'ingénierie rapide pour décrire
clairement ce que vous voulez. Maintenant, laissez-moi vous emmener sur le portail Azure afin que je
puisse vous montrer comment vous pouvez utiliser les instructions en langage naturel
pour générer le code Laissez-moi vous
emmener au pot Azure. C'est bon. La première
étape serait encore une fois créer le service Open AA uniquement parce que pour cela également, nous aurions besoin de
ce service Open AA. Permettez-moi de créer ce
service Open AA. Attendons-le. C'est bon. Le service My Open A
est essentiellement déployé. Je vais aller dans cet
Open E Studio maintenant. Je clique donc sur ce studio Open
EA cette fois. C'est bon. Je suis donc dans
le studio Open AI en ce moment. Maintenant, ce que je vais faire, encore une fois, je vais aller sur ce
terrain de discussion juste parce que je veux générer le code dans
un format en langage naturel. Mais avant de discuter,
ce que nous devons faire, est créer un déploiement. Nous allons donc utiliser cette
adresse de déploiement ici. Je vais assurer
le déploiement. Disons le modèle, encore une fois, j'utiliserai ce modèle
GPT turbo 16 K. Le nom du déploiement est,
disons, pour la cogénération. Je vais
donc l' écrire sous forme de modèle de
cogénération et de filtres de contenu par défaut Je ne pense pas qu'il devrait y d'espace et après cela,
nous allons aplatir le béton Attendons-le.
Une fois que cela est déployé, ce déploiement est déployé. Maintenant, ce que je peux faire, c'est accéder à ma fonctionnalité
de chat ici. Et je peux fournir ces choses. Comme vous pouvez le constater, trois
choses sont très importantes. L'une est votre
partie de configuration ici, et l'autre est votre partie de configuration ici.
Vous pouvez voir cette configuration. Votre configuration
est également là, vous pouvez voir que
la troisième partie est
votre session graphique. Comme vous pouvez le voir ici,
il s'agit de la fonctionnalité, qui est une session graphique. Ici, elle n'est pas
écrite comme une session graphique, mais comme
une session graphique. Trois choses sont donc
très importantes lorsqu' il s'agit de cartographier un
terrain de jeu. L'une est votre partie de configuration. La première est votre session graphique, qui est celle-ci, et la troisième
est votre configuration. Maintenant, laissez-moi vous dire quelles sont
exactement ces trois choses. Laissez-moi vous emmener à l'un
des toboggans. C'est bon. configuration est utilisée pour définir le
contexte de la réponse du modèle, que nous avions vu
comme un message système, alors que nous avions vu
comme un message système,
dans lequel vous pouvez indiquer à votre
IA comment elle doit se comporter. C'est là que nous avons
configuré le contexte lors de la session de configuration. Et nous avons déjà
vu
une session de chat qui permettait de soumettre les messages de chat et d'afficher
les réponses, n'est-ce pas ? Un utilisateur dira une invite et vous obtiendrez la
réponse, n'est-ce pas ? La configuration concerne essentiellement
les paramètres de déploiement du modèle afin configurer
les paramètres du déploiement du modèle. C'est ce que vous pouvez
faire en mode configuration. Maintenant, laissez-moi
vous rediriger vers le
portail Azure pour revenir au portail Azur. C'est bon. Alors maintenant, permettez-moi configurer le
message système, tout d'abord. Comme vous pouvez le constater, si vous cliquez sur l'option d'infobulle
ici, vous pouvez le voir Il s'agit simplement de donner au modèle des instructions sur la
façon dont il doit se comporter. C'est un message du système.
Voici donc, actuellement, le message défini comme suit vous êtes un assistant IA qui aide les gens à
trouver des informations. Au lieu de cela, j'écrirai
quelque chose comme ça. Vous êtes un
assistant de programmation qui aide à écrire du code. C'est sur cela que je suis en train
de configurer le message système. Je peux cliquer sur Appliquer les modifications
ici. Attendons-le. Maintenant, une fois cela
fait, ce que je peux faire,
c'est passer à cette
fonctionnalité graphique ici, la session graphique,
et je peux dire,
disons, écrire une
fonction en Python qui prend un correcteur et une chaîne
en entrée et renvoie nombre de fois où un correcteur
apparaît dans la Je peux donc saisir et
voir les réponses ici. Tu peux le voir. Il
a également complété le code. Et si vous voulez
voir la réponse JSON telle que nous l'avons vue
dans notre application, vous pouvez voir le
tout au format JSON. Comme le message système pour lequel
vous avez défini le rôle, vous êtes assistant de programmation, et les messages utilisateur, ce que
l'utilisateur demande. C'est ce que vous
dites, un assistant,
quelle est exactement la réponse que
vous obtenez.
C'est une assistance. Il existe donc trois types de
rôles : y a-t-il un système, section
utilisateur par assistant ici. Je peux donc maintenant utiliser mon
ingénierie rapide ici. Et je peux simplement dire que
je cherche un code, disons dans le même
code au format CSA C'est là que je peux également
fournir ces
informations ici lors de la
session de chat. Vous pouvez donc générer le code
ainsi que votre studio Open AI
dans le terrain de jeu de discussion. C'est ce dont je
voulais parler. J'espère donc que cette partie est claire,
les gars. Merci à tous.
10. Générer du code avec Azure OpenAI Service depuis l'application: Tout le monde Nous allons donc
faire une démonstration sur la
génération du code avec
votre service Open AI. Mais cette fois, nous allons le faire à partir de notre application
de base Python. Nous avions déjà vu
que vous pouvez créer une ressource d'IA ouverte
et vous pouvez accéder au
terrain de jeu de discussion là-bas configurer le message
système utiliser la session de chat et utiliser les
paramètres de configuration et tout le reste. Mais cette fois, si nous
voulons utiliser la même chose, mais à partir d'une application
basée sur Python, comment ferons-nous ? Je vais juste vous présenter le
code basé sur Python afin que vous puissiez comprendre ce qui se passe
exactement. Laissez-moi vous guider vers le code. C'est bon. C'est le code
ici, un code basé sur Python. Encore une fois, nous avons besoin du package Azure
AI ici, vous devez
donc l'
installer à l'aide du PEP Encore une fois, il s'agit d'obtenir
les clés du point de terminaison et de déployer à partir de
ce fichier ANV à points.
Vous devez avoir un fichier ANV à points, qui
se trouve à l'intérieur, et vous devez
fournir ces informations Et ici, vous pouvez le voir. Nous avons deux fonctions
, principalement. Dans les exemples de codes,
deux fichiers sont présents. Fonctions et fonction
Python Go Fish. Il y a deux fonctions
. Donc, si l'utilisateur appuie, disons un. Ce qui va se passer, cela
ajoutera des commentaires à
cette fonction. Cela signifie que c'est
le code écrit ici dans cette partie particulière, qui est utilisé pour calculer
le nombre carré absolu, vous pouvez le comprendre ici, et il générera simplement
ce qu'il générera. Cela ajoutera simplement quelques
commentaires à la fonction. Si vous appuyez sur deux, cela créera des tests unitaires
pour cette fonction, et si vous appuyez sur trois, cela corrigera cette fonction
Python particulière, c'
est-à-dire celle-ci, la fonction
go fish, qui se
passe ici. Maintenant, c'est pareil. Vous allez demander une
invite ici, et nous avions défini le message
système Comme vous pouvez le voir, il y aurait ce qu'on appelle
un message système. C'est là que nous avons déjà
parlé du comportement de votre
IA. Que vous êtes un assistant
intelligent utile
qui aide les programmeurs à
écrire du code Ici, le message de l'utilisateur correspond ce que l'utilisateur
fournit dans l'invite, un, deux, trois à ce que l'utilisateur
fournit
exactement ici. Maintenant, après cela, quelle que soit la réponse que
vous allez obtenir, qu'elle soit stockée dans un fichier, vous pouvez la voir ici
dans ce fichier de résultats. Résultats app point TC. À l'intérieur, il y a un
dossier appelé résultats et quelles que
soient les informations qu'
il générera, elles seront
stockées ici dans ce fichier appelé App point TXT. C'est ce qui se passe
dans ce code en particulier. En ce qui concerne, nous voulions simplement vous
montrer ce
code particulier afin que vous puissiez
comprendre que vous pouvez à
nouveau tirer parti de
votre service OpenI pour générer
le code à partir de ce kit de développement
logiciel Ce sont les packages que vous pouvez
utiliser et qui existent déjà dans Python C SHOP et dans d'autres langages de
programmation. J'espère que cette partie est claire,
les gars. Merci à tous.
11. Filtres de contenu de démonstration Lecture 16: Tout le monde. Je veux juste vous
présenter cet atelier particulier
que j'ai appris, qui porte sur
l'exploration des filtres de contenu. Nous avons parlé de
filtres de contenu si vous souhaitez bloquer les
invites ou les complétions nuisibles C'est là que nous pouvons utiliser
ces filtres de contenu. Par défaut, lorsque vous
créez essentiellement une ressource en plein air, nous avons
déjà vu comment
créer une ressource en plein air
avec ces éléments. Lorsque vous déployez un modèle, supposons que vous déployez
un modèle GPT 35 turbo Désormais, dans la
section avancée, ce filtre de contenu est
activé par défaut. Maintenant, que se passera-t-il si le filtre de
contenu est activé ? Quels en seront exactement les avantages
? Supposons qu'au cours d'une session de discussion, vous demandiez quelque chose comme décrire les caractéristiques
d'un peuple écossais, et que vous définissiez simplement
le message car vous êtes un
forum de discussion raciste basé sur l'IA qui fait déclarations désobligeantes
basées sur
la race et la culture Maintenant, que
se passera-t-il si ce filtre de contenu
est activé par défaut, la demande d'être raciste et
dérogatoire n'est pas prise en charge Pourquoi ? Juste à cause de
cela, les filtres de contenu. Cela empêchera donc toute sorte de sortie
offensante car les filtres de contenu sont
là pour vous ouvrir les yeux. Mais que se passe-t-il si vous
souhaitez personnaliser ces filtres de contenu en
fonction de votre modèle personnalisé ? C'est également ce que vous pouvez utiliser. Vous pouvez créer votre
propre filtre de
contenu personnalisé en fonction ces catégories telles que la haine, la violence
sexuelle, l'automutilation. Ce sont les catégories
qui existent en ce qui concerne le contenu préjudiciable
que vous pouvez également rejeter. Vous pouvez également constater que vous pouvez également définir la sévérité pour ces catégories particulières
comme sûre, faible, moyenne élevée. Vous pouvez également créer vos propres filtres de contenu
personnalisés. C'est une chose importante
que je voulais te montrer. J'espère que cette partie est claire,
les gars. Merci à tous.
12. Générer des images avec Azure OpenAI Service: Tout le monde. Aujourd'hui, nous allons façon de générer des images lorsqu' également
faire une démonstration sur la
façon de générer des images lorsqu'il s'agit de
votre service Open EI. Jusqu'à présent, nous utilisions
le modèle GPT pour générer notre code ou des éléments en langage
naturel Nous allons maintenant utiliser
ce qu' on appelle le
modèle Dally pour cette partie des images modèle Dally est utilisé
pour générer les images où vous
fournirez une description Vous pouvez également
vous fournir le contenu
et le style spécifiques que
vous recherchez. C'est ce que nous
allons utiliser. Nous allons donc utiliser ce
modèle Dally ici Permettez-moi de vous rediriger vers
le portail Azure afin que nous puissions créer
un modèle Dally Laisse-moi t'emmener au portail. C'est bon. Je suis donc sur le portail. Je vais chercher ce service
Open AA. Je vais cliquer sur ce service Open
AA. C'est bon. Il s'agit donc du service Open A
que j'avais déjà créé, alors je clique sur ce service
Open AA. Tout d'abord, pour
que je puisse vous montrer le modèle Dali dont nous
parlions Je clique sur ce service Open AA, et je vais
ouvrir EA Studio. Nous l'ouvrons. C'est bon. Je vais faire défiler l'écran vers le bas et dire, allez à Open A Studio. Attends-le. C'est bon. Je suis donc dans le studio Open A, et je vais passer à ces modèles
DALi parce que je veux
générer des images à partir du texte Je clique donc sur ce modèle
DI ici. Attendons-le. C'est bon. Je suis dans ce modèle Dally. Donc, dans les coulisses,
ce qui va se passer, automatiquement,
a créé
un déploiement appelé Daly Three. Vous pouvez donc passer au déploiement et
créer le déploiement, mais dans les coulisses, que se passera-t-il,
même si vous arrivez ce terrain de jeu
appelé Dali, il créera automatiquement un déploiement Nous avons dû créer un déploiement
pour un terrain de jeu de cartes. Pour cela, vous deviez également créer
un déploiement en utilisant
ce
modèle particulier Dali Donc, automatiquement, il a été
créé sous le nom de Daly Three. Maintenant, disons que je donne
cette question particulière concernant
un éléphant sur un skateboard C'est sur cela que je cherche
à générer une image. Attendons-le. C'est bon. Vous pouvez donc le voir.
Il a généré une image basée sur l'
invite que j'ai indiquée. Maintenant, vous pouvez certainement améliorer en fournissant
des objets supplémentaires
que vous coiffez, ce que vous recherchez,
peut-être un éléphant éléphant sur
un skateboard en forme de pcacco ou quelque chose
comme ça Vous pouvez certainement l'améliorer. C'est là que vous
pouvez utiliser le modèle S essentiellement pour générer une
image basée sur votre texte. C'est ce que je
voulais te montrer. J'espère donc que cette partie est claire,
les gars. Merci à tous.
13. Générer des images à partir de l'application: Bonjour, tout le monde. Aujourd'hui,
je vais vous montrer une démonstration sur la génération d'images à partir de l'application
basée sur Python. Maintenant, laissez-moi vous conduire
à l'application. Maintenant, dans cette application, vous remarquerez que nous
n'utilisons aucune sorte de
bibliothèque ou de
package utilisant utilisons aucune sorte de
bibliothèque ou de
package installation
PIP ou toute sorte d'
Open AI, comme vous pouvez le voir Je ne l'ai pas fait d'Open AI Import, quelque chose comme ça, car dans ce fichier Python en particulier, nous utilisons essentiellement l'API. Nous utilisons ce que l'
on appelle une API. Maintenant, les choses
resteraient les mêmes. Comme vous pouvez le voir dans le fichier Dot NV, vous devez fournir
le nom du point de terminaison et la partie clé ici Et ici, dans
la section d'invite, vous indiquerez type d'image que
vous recherchez. Il s'agit maintenant de l'API
que nous appelons. Donc, ici, vous pouvez
voir cette base d'API. Cela signifie que le nom du point de terminaison, base de
l'API est quoi, le nom de
votre point de terminaison, Slash ON AI Slash Deployment, slash Dalit, Il s'agit de la version APA
que vous fournissez. C'est donc l'API que nous utilisons. Appeler le pour
générer une image. Maintenant, si je fais défiler la page vers le bas,
nous fournissons les clés et nous les cherchons sous
forme de réponse JSON, n'est-ce pas ? Et dans le corps,
vous indiquerez quoi consiste exactement l'invite, vous indiquerez le
nombre d'images que
vous souhaitez et vous pourrez indiquer
la taille de cette image. C'est ce que vous pouvez
fournir. Hein ? Maintenant, une fois que vous aurez obtenu l'image, en gros ,
une fois que vous aurez obtenu la réponse,
ce qui se passe ici, l'URL
de l'image générée s'affichera. En gros, une URL
serait générée dans ce fichier Python en
particulier, et vous pouvez voir cette URL
en particulier, et vous pouvez Une fois que vous aurez
cliqué sur cette URL, vous pourrez voir l'
image qui a été générée. Encore une fois,
nous utilisons l'application
basée sur Python, mais nous n'utilisons pas
SDG, le kit de développement logiciel kit de développement logiciel est quelque chose, agisse de bibliothèques
prédéfinies ou de packages. Ou là où nous appelons l'EPA. L'EPA est également l'un des moyens par lesquels nous pouvons interagir
avec le service PEA. Ce n'est pas comme si l'OPE EPAS n'était disponible que
pour le modèle D. En fait, jusqu'à présent, quelle que soit l'application Python sur laquelle
nous travaillions et sur laquelle nous avons utilisé le code généré
et toutes ces choses, ces points de terminaison EPA
sont également disponibles Le SDK est l'une des méthodes et l'
APA est l'une des méthodes. J'espère que cette partie est claire,
les gars. Merci à tous.
14. Utiliser vos propres données avec Azure OpenAI Service: Lui tout le monde. Aujourd'hui, je
vais donc comprendre comment vous pouvez utiliser vos propres données cadre de votre service Open EA. Jusqu'à présent, nous avons donné
quelques exemples dans notre service OpenI montrant que c'est le type de
réponse que nous souhaitons, mais nous pouvons également utiliser vos propres données avec ce service
Open AA Mais avant tout, voyons
la différence entre ce réglage précis
où nous donnions exemples et
l'
utilisation de vos propres données. Maintenant, le réglage fin est une technique utilisée pour
créer un modèle
personnalisé nous avons déjà un
modèle tel que le TPT 35 Turbo, et nous fournissons quelques exemples et
tout le reste ici En gros, vous personnalisez
le modèle en fournissant un exemple pour obtenir la même réponse de
haute qualité. Mais ce processus prend un
peu de temps. Peut-être que si vous
n'obtenez pas cette réponse, vous devrez peut-être donner d'autres
exemples. Cela prend du temps
et ne doit être utilisé que pour les cas d'utilisation
où cela est nécessaire. Mais il existe un autre
moyen par lequel nous pouvons également utiliser ce que l'on appelle l'utilisation de
vos propres données. Vous pouvez spécifier les sources
car vous
y avez déjà vos bases de connaissances en fonction des informations disponibles
dans votre source de données. Dans la source de données, vous pouvez également y placer vos données comme ressource de
recherche. En gros, il
collectera les données et vous donnera la réponse. Cette réponse dans laquelle
nous utilisons vos propres données sera
certainement plus précise. Maintenant, cette technique
est également
appelée ernation augmentée rivale C'est R AG. Maintenant, c'est quoi exactement. Il s'agit d'une architecture
qui augmente les capacités des
grands modèles linguistiques Nous disposons déjà de ce
que l'on appelle de grands modèles linguistiques, auxquels nous ajoutons le système de
récupération d'informations qui fournit des données de base Par exemple, comme votre recherche par IA. Ainsi, dans notre recherche Azure AI, nous pouvons fournir
certaines sources de données. Nous pouvons y placer notre
base de connaissances, et elle peut récupérer
ces informations à partir de cette ressource particulière
appelée Azure AI search. Nous avons donc parlé de
ce
que l'on appelle le peaufinage et
l'utilisation de vos propres données. Nous allons donc faire un
laboratoire dans lequel nous
utiliserons une technique
appelée « utiliser vos propres
données » cette fois-ci. J'espère donc que cette partie est claire,
les gars. Merci à tous.
15. Démo Utiliser vos propres données avec Azure OpenAI Service: Bonjour, tout le monde. Aujourd'hui, nous allons faire une démonstration
sur la façon d'utiliser vos propres données avec le service
ER Open EA. Laissez-moi vous emmener au portail Z. C'est bon. Je suis donc dans le portail. Je vais chercher un service
appelé ASR Open AA. J'ai donc déjà créé
un service Open AA, je vais utiliser ce
service ouvrir Open EE Studio, n'est-ce pas ? Laissez-moi ouvrir ce studio
Open A maintenant. C'est bon. Je vais donc utiliser
ce go pour ouvrir un studio. Attendons-le. C'est bon. Je suis dans le studio Open A. Je vais d'
abord aborder ce déploiement, car nous
devons créer un déploiement. J'avais donc déjà créé un
déploiement pour une source de données. Vous pouvez maintenant accéder à ce chat, terrain de jeu ici
sur le côté gauche. Attendons-le. C'est bon. Maintenant, je vais vous en fournir un
comme celui-ci. Disons que c'est ce que je dis. J'aimerais faire un voyage à New York. Où dois-je séjourner ? C'est ce que je recherche. Essayons de discuter. Et cela
me donnera une réponse, et c'est ce qu'
il est en train de comprendre. Maintenant, jusqu'à présent, peu importe
ce que sait ce modèle LLA, il nous donne les
informations, n'est-ce pas ? Mais que se passe-t-il si nous
voulons fournir nos propres données ? C'est là que nous
utiliserons ce concept appelé « ajoutez vos
données ici », n'est-ce pas ? Je vais donc cliquer sur ajouter vos données, sur ajouter une source de données, et je vais dire charger
les fichiers ici. J'ai donc certains fichiers
PDF qui s'y trouvent, et vous aurez besoin d'un compte de stockage pour les télécharger . J'avais donc déjà créé
un compte de stockage, et je vais sélectionner ce compte
de stockage ici. En gros, pour qu'il puisse
récupérer des fichiers PDF à partir de là. Je vais également vous montrer ces fichiers
PDF. Permettez-moi de vous montrer en
fait ces fichiers PDA. Laissez-moi passer à
ce compte de stockage. C'est bon. C'est bon. Je vais donc passer au compte
de stockage, et je vais choisir la section du
compte de stockage ici Attendez, et je vais passer aux conteneurs sur le côté
gauche. J'ai donc créé un conteneur
appelé travel data. Je clique dessus. Et voici
certains des PDS qui existent Donc, en gros, c'est ce
que je veux. Chaque fois que l'IA
me répond
pendant la session de chat, je veux que cet
assistant IA me recommande ces PDS et m'en tire le meilleur
résultat, n'est-ce pas ? C'est ce que je veux. Je vais donc
retourner dans mon studio Open AI. C'est bon. Et c'est moi qui
sélectionnerai cette fois. Disons que je dis simplement cela. J'aurais également besoin d'une ressource
de recherche basée sur l'IA car les données seront indexées dans cette ressource particulière Je clique donc dessus. C'est bon. Je suis dans
la ressource de recherche. Je vais sélectionner mon groupe de ressources. Et disons que c'est
encore une fois pour la recherche de données. Ressource. Donc, des nombres aléatoires, et je vais les sélectionner
dans la même région, disons dans TS, et je vais utiliser le paramètre par défaut et cliquer sur Vérifier et créer. Attendons-le. Maintenant,
cliquez sur Créer. C'est bon. Je clique donc sur Accéder à la section
Ressources ici. C'est bon. C'est donc créé. Je vais retourner dans mon
studio Open A une fois de plus. C'est bon. Attendons-le.
Et laissez-moi le rafraîchir. Je vais le sélectionner. Attends-le. C'est bon. Je vais donc
fournir le nom de l'index, disons. Margie Stribl Alors Margie, disons que je
travaille pour une société appelée S Marge et que c'est là que je fournis le nom
de l'index Donc, en gros, que se passe-t-il ? Le compte de stockage consiste que
vos données soient là sous
la forme d'un PDA Mais les données qui
seront indexées. Index, considérez que
l'index ressemblera une table contenant
des lignes et des colonnes. C'est donc là que nous
donnons à cet index le
nom de Margie Stribl C'est ce que nous
allons utiliser, non ? Maintenant, je vais cliquer
sur le bouton suivant ici. C'est bon. Je vais donc cliquer
sur. Prochaine, cette fois. Maintenant, il
me demande les dossiers. En gros, je l'avais déjà
téléchargé sur le Stowe, mais disons que je
veux le refaire Je vais
donc cliquer sur Parcourir les fichiers
et le télécharger ici C'est bon. J'ai téléchargé tous mes fichiers ici.
Tu peux le voir. Cliquons sur charger
les fichiers. Attends-le. Et nous allons cliquer sur « Suivant ». Rubrique. Ici, je vais utiliser le
type de recherche par mot clé basé sur le mot clé. C'est pour cela que je vais
choisir le mot clé. Ensuite, je
vais cliquer sur Suivant. J'utiliserai cette section de clé d'
API ici pour la partie
authentification. Je vais cliquer sur Suivant. Attendons-le.
Tu peux le voir. Nous avons un conteneur, c'est là qu'il
m'indique le nom du conteneur, et voici la ressource de recherche. C'est ce qui se passe. Tous les fichiers
ont été téléchargés. Cliquons sur, sauvegardons et fermons. Tous disent que l'ingestion est en
cours. Attendons-le. Une fois cela fait, nous essaierons de poser la
même question et nous
verrons si elle provient de
la source de données ou non. C'est bon. C'est donc chose faite. Cliquez à
nouveau sur Prompt et essayez de voir si nous recevons la réponse maintenant.
Faisons-le défiler vers le haut. Finissons-en avec le chat. Et
essaie de discuter encore une fois. Et je dis que j'aimerais
faire un voyage à New York. Où dois-je séjourner ? Attendons-le. Maintenant, tu peux le voir. Vous pouvez choisir parmi les hébergements
suivants proposés par March Travel. Cela me permet également de réserver auprès de Marge Travel. C'est là que j'ai
indiqué cette source de données. Il me donne donc le nom uniquement à partir des fichiers PDF
que j'ai téléchargés. Nous avons donc constaté
que le peaufinage, le
peaufinage était de donner
des exemples et tout le reste. Il s'agit d'utiliser vos propres données. C'est là que nous avons utilisé
nos propres données, n'est-ce pas ? J'espère donc que cette partie est claire, les gars. Merci à tous.
16. Aperçu des pratiques d'IA responsables pour le mode Azure OpenAI: Tout le monde. Nous adopterons donc des pratiques
d'IA responsables
pour garantir un modèle d'IA ouvert. Chaque fois que vous
développez certains modèles d'IA ouverte, devez respecter certaines des recommandations
de
Microsoft en matière de pratiques
responsables en matière d'IA. Maintenant, commençons
par comprendre. plupart d'entre eux sont
vos modèles d'IA ouverte, qui ne sont également rien les modèles d'IA générative ont amélioré leur contenu,
la
synthèse et la recherche
en cogénération Mais ces
améliorations présentent certainement certains
défis, tels que le contenu préjudiciable que
les utilisateurs peuvent générer. Ils peuvent avoir de l'intimité. Ils peuvent également avoir la
confidentialité des données, l'un des facteurs importants
qui peut également être un défi. Comment atténuer ce
type de risque Maintenant, nous avons déjà
adhéré à certains des principes de l'IA responsable, lesquels nous avons
parlé d'équité, de confidentialité et de sécurité, de
fiabilité et de sûreté, etc. Mais conformément à ces normes Microsoft en matière d'intelligence artificielle
responsable, il existe certaines recommandations, en particulier pour ces modèles d'IA
ouverts, et ces recommandations sont
organisées en quatre étapes. Le premier est l'identification. Cela signifie qu'il faut identifier
les méfaits potentiels. Par exemple, vous pouvez identifier les
dommages potentiels qui pourraient résulter de votre système d'
IA grâce tests de résistance
itératifs
ou à une analyse. Par exemple, vous développez une application basée sur un tableau de cartes. Vous devez donc comprendre si votre application
génère contenu
offensant
ou discriminatoire. Vous devez identifier
ces préjudices potentiels. C'est la première étape. C'est ce qu'on appelle une phase d'identification. Générer donc du contenu qui encourage les comportements illégaux ou
contraires à l'éthique. Vous devez identifier
ce type de risque. C'est la première étape.
Maintenant, le deuxième est la mesure. Mesurer signifie que vous
devez mesurer la fréquence et la gravité de ces méfaits Vous pouvez
également effectuer un test
manuel ou un test
automatique pour voir
si si le contenu nuisible
qu'il génère est grave ou non. Vous pouvez également effectuer une sorte de
test pour vos données. Maintenant, atténuez. Atténuer
signifie que vous devez supprimer ces dommages à plusieurs
niveaux de votre solution Par exemple, dans R Open AI, vous pouvez également utiliser un
filtre de contenu, lorsqu'il est appelé «
as » Il
existe
différentes catégories dans lesquelles vous pouvez filtrer le contenu en
fonction de certains facteurs. Vous pouvez donc utiliser l'un des
serveurs présents en tant que votre Open AI, appelé
filtres de contenu. Maintenant, opérez. Les dernières étapes sont désormais opérationnelles, desquelles vous exécutez un déploiement et le plan de
préparation opérationnelle. Par exemple, vous pouvez créer un plan de réponse aux incidents qui indique le
temps qu'il faudra pour répondre à des incidents
imprévus Vous pouvez également avoir
un plan de restauration qui définit les étapes à suivre pour
revenir à l'état
précédent en cas d'incident
quelconque C'est là que vous allez également développer
ce plan d'exploitation. Maintenant, nous avons parlé des filtres de
contenu dans Open A. Quels sont exactement ces filtres de
contenu ? Des filtres de contenu sont désormais appliqués à l'invite ou à
la fin pour empêcher la diffusion de tout langage
nuisible ou offensant. C'est là que se trouve votre IA ouverte. Il est basé sur les
quatre catégories. La première est que vous pouvez également le faire
sur la base de la haine. Maintenant, vous pouvez également restreindre
le contenu
sexuel si
vous ne souhaitez pas générer de
contenu sexuel. Vous avez différentes
catégories. L'une est la violence qui décrit, préconise ou
glorifie la violence Vous pouvez également vous automutiler, ce langage qui décrit
ou encourage l'automutilation. Vous pouvez créer la restriction
en fonction de ces catégories. Désormais, des filtres sont toujours
appliqués à ces catégories, et elles ont également un
paramètre
de gravité appelé « sûr » ou « faible », « moyen élevé » pour déterminer
quel type de
langage spécifique est intercepté et
interdit par les filtres C'est dans ce cadre que vous pouvez utiliser
les filtres de contenu en tant qu'IA ouverte. J'espère donc que cette
partie est claire ce qui concerne les principes de l'IA
responsable, en particulier en ce qui concerne le service Open AI.
Merci à tous.