AI-050 : Développer des solutions d'IA génératives avec Azure OpenAI | Anurag Sharma | Skillshare
Recherche

Vitesse de lecture


1.0x


  • 0.5x
  • 0.75x
  • 1 x (normale)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

AI-050 : Développer des solutions d'IA génératives avec Azure OpenAI

teacher avatar Anurag Sharma, Trainer

Regardez ce cours et des milliers d'autres

Bénéficiez d'un accès illimité à tous les cours
Suivez des cours enseignés par des leaders de l'industrie et des professionnels
Explorez divers sujets comme l'illustration, le graphisme, la photographie et bien d'autres

Regardez ce cours et des milliers d'autres

Bénéficiez d'un accès illimité à tous les cours
Suivez des cours enseignés par des leaders de l'industrie et des professionnels
Explorez divers sujets comme l'illustration, le graphisme, la photographie et bien d'autres

Leçons de ce cours

    • 1.

      Aperçu du cours

      2:02

    • 2.

      Qu'est-ce que l'IA générative

      5:13

    • 3.

      Azure Open AI

      2:28

    • 4.

      Démo Azure Open AI

      6:39

    • 5.

      Paramètres et exemples Azure OpenAI

      6:17

    • 6.

      Intégrez Azure OpenAI dans votre application

      4:19

    • 7.

      Comment récupérer les clés et le point de fin du service OpenAI

      0:59

    • 8.

      Qu'est-ce que l'ingénierie rapide

      2:15

    • 9.

      Générer du code avec Azure OpenAI Service

      5:13

    • 10.

      Générer du code avec Azure OpenAI Service depuis l'application

      2:46

    • 11.

      Filtres de contenu de démonstration Lecture 16

      1:49

    • 12.

      Générer des images avec Azure OpenAI Service

      2:40

    • 13.

      Générer des images à partir de l'application

      2:19

    • 14.

      Utiliser vos propres données avec Azure OpenAI Service

      2:07

    • 15.

      Démo Utiliser vos propres données avec Azure OpenAI Service

      6:05

    • 16.

      Aperçu des pratiques d'IA responsables pour le mode Azure OpenAI

      4:14

  • --
  • Niveau débutant
  • Niveau intermédiaire
  • Niveau avancé
  • Tous niveaux

Généré par la communauté

Le niveau est déterminé par l'opinion majoritaire des apprenants qui ont évalué ce cours. La recommandation de l'enseignant est affichée jusqu'à ce qu'au moins 5 réponses d'apprenants soient collectées.

15

apprenants

--

À propos de ce cours

Azure OpenAI Service donne accès aux puissants modèles de langues d'OpenAI, tels que GPT ; le modèle derrière le service ChatGPT populaire. Ces modèles permettent à différentes solutions de traitement du langage naturel (NLP) de comprendre, de transformer et de générer des contenus. Les utilisateurs peuvent accéder au service via les API REST, les SDK et Azure OpenAI Studio. Dans ce cours Solutions d'IA avec Azure, vous apprendrez à mettre en service le service Azure OpenAI, à déployer des modèles et à les utiliser dans des applications d'IA génératives. 

Rencontrez votre enseignant·e

Teacher Profile Image

Anurag Sharma

Trainer

Enseignant·e

Compétences associées

IA et innovation Bases de l'IA
Level: Beginner

Notes attribuées au cours

Les attentes sont-elles satisfaites ?
    Dépassées !
  • 0%
  • Oui
  • 0%
  • En partie
  • 0%
  • Pas vraiment
  • 0%

Pourquoi s'inscrire à Skillshare ?

Suivez des cours Skillshare Original primés

Chaque cours comprend de courtes leçons et des travaux pratiques

Votre abonnement soutient les enseignants Skillshare

Apprenez, où que vous soyez

Suivez des cours où que vous soyez avec l'application Skillshare. Suivez-les en streaming ou téléchargez-les pour les regarder dans l'avion, dans le métro ou tout autre endroit où vous aimez apprendre.

Transcription

1. Aperçu du cours: Lol, tout le monde. Bienvenue dans la section de présentation des cours d' AI 050 qui est une solution d'IA générative avec laquelle est votre service Open AI Parlons maintenant de ce cours. Maintenant, voici le cours sur le développement de solutions d' IA générative, nous en avons déjà discuté. Maintenant, tout d'abord, il n'y a aucun examen spécifique que vous pouvez planifier pour ce cours. Il s'agit d'un cours destiné à vos connaissances, mais il n'existe pas d'examen en tant que tel, qui existe actuellement pour ce cours. Mais maintenant, les gens me demanderont quel avantage nous obtiendrons si nous suivons ce cours. Supposons que vous recherchiez une autre certification basée sur l'IA, peut-être AI 900 ou AI 1 ou 2. Ce sujet est commun à toutes les certifications basées sur l' IA. Cela signifie que c'est le sujet que vous trouverez dans chaque rubrique en particulier. Pour chaque examen en particulier, il s'agit d'un ou deux AI 900 AI. agit d'un service Open AI important, un service important de Microsoft si vous souhaitez créer des solutions d'IA génératives. Je dirais qu'il s'agit d'un cours particulier important. Maintenant, quelles sont les choses abordées dans ce cours, comprenons-nous ? Ce sont les modules abordés dans ce cours, Deploy Open A resource et OpenAI model Vous pouvez développer, vous savez, les différents modèles existent quand il s'agit de cette OpenAI, comme le modèle GPT, les modèles d' intégration existent, le modèle Dali est là, comment générer le code, comment générer ce que l' on appelle des images en fonction Vous trouverez donc de nombreux modules différents ici, modèles étranges ici. Vous trouverez également ce on appelle un grand modèle de langage. Nous avons parlé de ce que sont exactement les grands modèles linguistiques. Et vous verrez également comment vous pouvez également utiliser ce service Open AI avec vos données. Open AI est un service basé sur Microsoft où vous pouvez créer du contenu générateur Vous devez avoir vu des applications comme CAT GPT Copilot Cela repose entièrement sur les applications génératives basées sur l' IA. Nous pouvons créer ces applications basées sur l' IA en utilisant ce service particulier Colles Open AI J'espère que cette partie est claire, les gars. Merci à tous. 2. Qu'est-ce que l'IA générative: Bonjour, tout le monde. Aujourd'hui, nous allons donc parler de l' IA native. Parlons-en. L'IA native est donc une catégorie de capacités au sein de la solution d'IA qui crée une réponse semblable à celle d'un humain ou qui crée un contenu original. Il peut créer le contenu dans divers formats tels que votre langage naturel. Il peut générer des images. Je peux aussi faire une génération de code. Par exemple, génération de langage naturel, décrivez qui crée le contenu original. Par exemple, dans l'application dont vous avez sûrement entendu parler de copilot ou de CA GPT, où vous indiquez ce que vous recherchez , vous fournissez Disons, pouvez-vous rédiger une description de poste pour un responsable ou un associé du développement des nuisibles ? Vous en tirez la réponse, et c' est assez similaire au contenu original ou à la réponse humaine. C'est là que l'UE peut utiliser cette fonctionnalité appelée IA active. Maintenant, le second est la génération d'images. Par exemple, certaines applications basées sur l'IA génératrice d'applications peuvent prendre une réponse, une demande humaine et générer une image appropriée. Par exemple, vous pouvez accéder à cette barre oblique créée par bing.com, où vous direz que je veux cette image en particulier basée sur ce texte en particulier Vous fournissez le texte et vous obtiendrez une image basée sur votre texte. Vous pouvez voir qu'il s'agit d'un arc-en-ciel ou d'une cascade, et cela générera une image pour vous. Il peut également faire ce que l'on appelle une génération de code, laquelle vous concevez ou aidez vos développeurs de logiciels à écrire des codes. Par exemple, je peux donner les instructions comme bon me semble, écrire le code Python pour multiplier deux nombres, et cela générera un code python pour moi. C'est là que nous pouvons également créer un langage naturel, donner des images et générer du code Maintenant, comment fonctionnent ces applications génératives d' IA ? Ou qu'y a-t-il exactement dans les coulisses ? Dans les coulisses, ces applications génératives basées sur l'IA sont donc ces applications génératives basées sur l'IA alimentées par de grands modèles linguistiques. Ne vous inquiétez pas, vous n'avez pas besoin de vous y attarder en profondeur. question relative au LLM ne vous sera posée lors de l'examen, mais il est bon de connaître les grands modèles linguistiques Maintenant, les grands modèles de langage suivent essentiellement cette architecture de modèle de transformateur. Maintenant, il y a trois étapes dans cette architecture. L'un d'eux est la canisation. Supposons que vous ayez la déclaration telle qu'elle est ici. J'ai entendu un chien se garer bruyamment sur un chat. Ainsi, chaque mot se verra attribuer une valeur de texte unique ou un numéro de texte. Comme vous pouvez le voir, moi, le jeton entendu est deux, A est trois. Maintenant, A se répète deux fois ici, mais on lui donne un seul chien symbolique de cinq. Ainsi, chaque mot, chaque signe n'est rien d'autre qu'un mot ou une partie de quoi. Et la technique qui consiste à décomposer votre texte en jeton s'appelle une tokenisation C'est la première étape de vos grands modèles linguistiques. Maintenant, c'est quoi ça ? Maintenant, ce ne sont que des chiffres. Comment créer une relation entre ces chiffres ? C'est là que nous avons une deuxième méthode appelée incorporation. C'est là que se trouve maintenant cette intégration particulière, comme vous pouvez le voir, ce skateboard, nous avons des valeurs multi-tableaux ici. Nous créons donc une relation entre ces jetons après cette première étape tokenisation appelée C'est là que nous créons une relation entre les jetons. Maintenant, la troisième étape consiste à saisir la force de la relation entre les jetons et l'attention, attribuant plus de poids à la tête et au chien. Et imaginez que j'ai entendu un chien s'appeler Victor. C'est ainsi que ces applications d'IA générative sont basées sur de grands modèles linguistiques, le LLM Maintenant, qu'est-ce qu'une IA ouverte alors ? Maintenant, pour utiliser votre application basée sur l'IA générative, vous devez utiliser un service appelé ASR Open AI, alors que votre OpenI est solution basée sur Microsoft Cloud pour déployer ces grands modèles linguistiques C'est là que nous les utiliserons en tant que services OpenA. Nous parlerons donc davantage du service OpenA. Comprenons-le. Ainsi, dans le service ASR OpenA, il existe déjà des modèles pré-entraînés Vous n'avez pas besoin d' écrire ces modèles de LLM. Il existe déjà des modèles entraînés. Par exemple, vous pouvez utiliser quatre modules GPT pour la génération de votre langage naturel Si vous souhaitez créer une application telle que CA GPT ou copilot, vous pouvez utiliser le modèle CPT, permet également de générer et de comprendre le langage naturel et le code Ainsi, pour la génération de code ou pour la génération de langage naturel, vous pouvez utiliser le modèle GPT four Modèle d'intégration que vous pouvez utiliser si vous souhaitez convertir votre texte en forme vectorielle numérique Vous pouvez utiliser un modèle appelé Dal qui permet de récupérer les images à partir du langage naturel. Ces modèles LLA sont donc déjà présents dans votre service Open AA. est très important du point de vue de l' examen C'est très important du point de vue de l' examen et de l'utilité de tous les modèles que vous utiliserez, disons pour la génération du langage naturel. Vous pouvez utiliser le GPT. On peut se demander quel modèle vous utiliserez si vous souhaitez générer les images à partir du langage naturel, vous pouvez utiliser un modèle Dally Nous allons donc utiliser ce service Open AA. D'accord. Nous en parlerons donc plus en détail en tant que service Open AA lors de la prochaine conférence. J'espère donc que cette partie est claire. Merci à tous. 3. Azure Open AI: Payez un. Nous allons donc en savoir plus sur le fait de devenir votre service Open A dès maintenant. Maintenant, le service Pen A n'est pas disponible pour tous les clients. Vous devez demander l'accès à votre service Open AA. Maintenant, comment faisons-nous ? Vous pouvez maintenant utiliser ce formulaire pour demander l'accès à ce service AR Open EA, ou vous pouvez accéder à cette URL, et il y aura un formulaire Microsoft. Maintenant, ce n'est pas comme si vous deviez demander l'accès et qu'on vous l'accorderait. Non. C'est d' abord pour les entreprises. Ce n'est pas seulement pour des raisons pratiques, vous demandez l'accès et vous serez accordé. C'est pour les entreprises qui créent des applications basées sur l'IA générative, et elles verront. Et ce, si votre entreprise est éligible à cet accès au service Open EA ou non. Maintenant, pourquoi cet accès est limité, simplement à cause de certains des principes responsables de l'IE. Certaines personnes peuvent également utiliser cette application de manière nuisible, et une grande puissance de calcul utilisée dans le pground pour ce service Open AA Tout le monde n'aura donc pas accès à ce service OpenA. Vous devez d' abord remplir le formulaire. Et après un certain temps, vous serez informé si vous avez accès à ce service Open AA ou non. C'est donc uniquement pour les entreprises. Ce n'est pas comme si vous pouviez donner à votre adresse e-mail une adresse e-mail personnelle et l'accès vous sera accordé, non. Maintenant, laissez-moi vous présenter ce formulaire ainsi que son apparence exacte. Maintenant, j'appuie simplement sur R dans le navigateur, et c'est la page qui a été ouverte, demande l'accès au service SR OpenA Comme vous pouvez le voir ici, vous devez fournir votre prénom, votre nom de famille, nombre d'abonnements que vous avez, votre identifiant, nom de votre entreprise, votre adresse e-mail et tout ce que vous devez fournir ici. Donc, tous les détails que vous devez fournir. Ensuite, vous serez informé si vous avez accès à ce service Open EA ou non. En raison du principe d' intelligence artificielle responsable et de la puissance de calcul utilisés dans le pack, tout le monde n' a pas accès à ce service Open EA, n'est-ce Mais nous avons un accès pédagogique à ce service Open AI en particulier, où je voudrais vous montrer une petite démonstration expliquant comment utiliser le modèle GPT ou le modèle D, quoi ressemble exactement ce studio Open AI Je voudrais donc vous montrer dans la prochaine conférence comment exactement nous pouvons créer le service Open AA, et ce qu'il y a exactement dans le studio Open AI. Merci à tous. J' espère que cette partie est claire. 4. Démo Azure Open AI: Bonjour, tout le monde. Aujourd'hui, nous allons donc faire une démonstration d'Azure Open EA. Donc, comme je vous l'ai dit, Open EA something n'est pas disponible pour tous les clients. Vous devez demander l'accès à ce service, et il est réservé aux entreprises qui créent l'application de base Native AI. J'ai donc accès à ce service Open EA parce que nous avons obtenu l'accès aux instructions uniquement pour présenter une démo afin que vous puissiez voir à quoi ressemble le studio Open AA Permettez-moi donc de vous emmener sur le portail SSR et de vous montrer exactement ce que nous pouvons faire dans le cadre de ce service Open AA C'est bon. Je suis donc sur le portail SCR, et je vais chercher un service, disons, appelé Open AI Je souhaite créer un service Open A. Et attendons-le. C'est bon. Le service postal arrive donc sous le nom d'Open EI. Je vais cliquer sur ZO Open. C'est bon. Je vais donc cliquer sur créer une section ici. Je souhaite créer ce service Open A. C'est bon. Je vais donc sélectionner un groupe de ressources ici. Je vais sélectionner, disons, liste Open AI huit ou deux. Je vais sélectionner le niveau de tarification fonction du nombre d'appels pouvant être effectués, standard D zéro. Les choses sont tout à fait les mêmes lorsque nous créons les autres services d'IA. Je vais utiliser les paramètres par défaut. Je clique sur vi plus create, et nous allons maintenant créer ce service Open AA. Il suffit de l'attendre. C'est bon. Je vais donc cliquer sur Créer maintenant et attendre que le déploiement soit terminé. C'est bon. La ressource a été déployée. Je vais cliquer sur Accéder à la ressource ici. Je peux aller dans ce studio Open AI. C'est bon. Maintenant fonctionne le service Open A ? N'oubliez pas que cela n'est disponible que dans la région de Stine. L'est est l'une des régions où j'ai été déployé. Donc, si vous pouvez le créer dans différentes régions, vous n'aurez peut-être pas accès à ce service Open A car il n'est disponible que pour les régions tachées. Supposons donc que je veuille créer des modèles dans ce studio Open E en particulier. Je souhaite créer des applications génératives basées sur l'IA. Je clique donc sur Open A Studio. Passons à cet Open A Sudio. C'est bon. Voici donc à quoi ressemble le studio Open AI. Vous avez donc le modèle Te, comme vous pouvez le voir sur le côté gauche, qui générera les images en fonction de votre texte. Vous avez également le terrain de jeu de discussion ici, où vous pouvez avoir une fonctionnalité similaire au chat. Vous disposez d'une fonctionnalité de complétion que vous pouvez tester. Il y a donc beaucoup de choses que vous pouvez faire. Disons que je souhaite créer une fonctionnalité de chat ici. Disons que je souhaite créer un modèle GPT lequel je peux discuter avec une application particulière C'est assez similaire à une application basée sur un copilote que j'essaie de créer Je vais donc cliquer sur ce terrain de discussion ici, tout d'abord. C'est bon. Avant de pouvoir utiliser le Chart Playground, vous devez créer un déploiement. Je vais donc cliquer sur ce bouton pour créer un déploiement. Je vais sélectionner le modèle. Je vous ai donc dit qu'il existe déjà modèles d' IA générative pré-entraînés. Supposons que je veuille utiliser ce GPT quatre, vous savez que le GPT 40 est un modèle le plus récent que vous pouvez Supposons que j'opte pour ce modèle où il est écrit GPT 35 à 16 K. Et je dis que nom de mon déploiement est, disons, je veux créer une application basée sur le chat Je dirais donc application basée sur le chat 01, c'est le nom de mon déploiement. Et faites défiler la page vers le bas, et créons-le. Attendons maintenant que ce déploiement soit tout d' abord terminé. Et nous avons utilisé le modèle GPT ici. Les modèles pré-entraînés sont donc là. Maintenant, vous pouvez le voir ici. Cela m'a donné. D'accord. C'est ainsi que le test de démarrage du chat permet de tester votre assistant si vous lui donnez simplement une obtenez-vous la réponse ou non ? Maintenant, ce que je peux faire, c'est qu'il y a quelque chose d'important ici. tu peux dire. Message du système, très, très important. Et si vous cliquez sur l'infobulle, message système est que vous donnez au modèle les instructions sur la façon dont il doit se comporter Supposons qu'actuellement, en ce qui concerne les messages du système, vous êtes un assistant d'intelligence artificielle qui aide les gens à trouver des informations. C'est à cela que le message système est configuré, indiquant comment vous devez vous comporter lorsqu'un utilisateur interagit avec vous. Supposons que je veuille changer le fait que vous soyez un assistant d'IA qui aide les gens à découvrir les cours de SR, exemple, disons que c'est celui-ci, que vous devez vous comporter ainsi, et tout autre. Disons que j'écris d'autres informations, répondez par un emerge et dites que vous n'en avez aucune idée. C'est, je dis, mon système d'IA. C'est ainsi que tu dois te comporter. Il s'agit du message du système. Donc, si vous cliquez sur cette infobulle, vous trouverez des instructions Vous pouvez en savoir plus à ce sujet. Quels sont exactement les messages du système ? Une fois que c'est fait, vous pouvez cliquer sur ce bouton Appliquer les modifications ici au message de votre système. Je dis que vous mettez à jour le message de votre système. Oui, cliquez sur Continuer et attendez. Maintenant, une fois que c'est fait, vous pouvez vous déplacer vers le bas et avant de tester votre requête. Vous pouvez fournir votre requête ici, et vous obtiendrez essentiellement une réponse de votre assistant. C'est bon. Testez maintenant la fonctionnalité. Vous devez donc attendre un certain temps une fois que vous avez mis à jour le message système. Disons que j'ai attendu 5 minutes. Maintenant, après cela, je peux fournir quelques questions. Disons que je dis que toute information sur, disons, la politique, je la dis à mon assistant. Maintenant, mon assistant va me répondre. Je suis désolée, mais je n'ai aucune information politique. Disons donc que je dis ça. Quelles informations pouvez-vous fournir Maintenant, attendons-les. Vous voyez que cela signifie que je peux fournir des informations sur une grande variété de sujets liés à la RS, n'est-ce pas ? Parce que nous avions défini le message système selon lequel vous aidez les gens à découvrir les cours ZR. toute autre information, veuillez répondre par une réponse émergente et dire que vous n'en avez aucune idée, n'est-ce pas ? C'est là que vous pouvez utiliser le message du système qui ressemble à ce que devrait être l'IE. Il existe également différents modèles Supposons que vous souhaitiez utiliser le modèle Dal, où vous souhaitez générer l'image en fonction de votre texte, vous pouvez également utiliser ce modèle Dal. C'est là que vous pouvez utiliser les différents types de modèles génératifs, les modèles d'IA génératifs, en tant que service Open AI. J'espère que cette partie est claire. Merci à tous. 5. Paramètres et exemples Azure OpenAI: Nous voulons. Aujourd'hui, je voudrais donc parler de certains des paramètres importants ce qui concerne votre IA ouverte. Parlons de ces paramètres. Lorsque vous vous rendrez dans votre studio d'IA ouvert, vous aurez plusieurs paramètres tels que la réponse maximale. Cela limitera le nombre de jetons que la réponse peut inclure. Disons que vous voulez cette réponse. Chaque fois que vous discutez avec quelqu'un, disons un mode chat dans le studio Open A. Vous indiquez que c'est quelque chose que vous recherchez. Vous souhaitez minimiser le nombre de mots ou le nombre de jetons, puis vous pouvez réduire la valeur de ce paramètre de réponse maximal. Cela signifie que vous pouvez limiter le nombre de jetons ou, en d'autres termes, ce sont les mots que vous limitez. C'est ce qu'on appelle une réponse maximale. D'autres paramètres appelés température. Il contrôle le caractère aléatoire. Cela signifie que vous allez essentiellement configurer une partie de la valeur avec un nombre plus élevé, ce qui produira une réponse moins déterministe et une sortie plus aléatoire En gros, vous pouvez configurer certaines valeurs de ces températures. Paramètre. Disons que vous voulez que chaque fois la réponse soit aléatoire. Vous voulez cela, disons que vous recherchez peut-être un sujet appelé politique S. Vous recherchez une sorte de réponse, et vous voulez chaque fois que vous voulez une sortie aléatoire, celle où vous pouvez essentiellement augmenter cette valeur de cette température. Plus le nombre est élevé, plus vous obtiendrez de résultats aléatoires qui contrôlent température, plus le caractère aléatoire ici Maintenant, le troisième est le top. C'est à peu près la même chose que la température. Comme vous pouvez le constater. Il ne contrôle également le caractère aléatoire que de la même manière, mais d'une manière différente en termes de température Mais c'est assez similaire. Si vous voulez contrôler le caractère aléatoire, il est toujours conseillé d' essayer l' un ou l'autre, mais pas les deux, c'est ce que vous devez garder à l'esprit Maintenant, il y a deux autres paramètres que je veux aborder , appelés pénalité de fréquence. Il se concentre sur la fréquence de répétition d'un mot. Disons que j'ai demandé peut-être en mode graphique et que je réponds que, s'il vous plaît, veuillez me fournir quelques lignes du côté du parc, cela a généré quelque chose comme ça. Aujourd'hui, je suis allée au parc, le parc était magnifique. J'ai apprécié le parc. Vous pouvez voir qu'il y a beaucoup de parcs, c'est quelque chose. Vous pouvez voir que cela se répète assez fréquemment ici. Ce qui peut sembler répétitif. Pour résoudre ce problème, vous pouvez utiliser un paramètre appelé pénalité de fréquence. Cela pourrait être appliqué. Plus la fréquence est élevée, cela signifie qu'il sera moins probable que les mots courants soient générés. Si vous réduisez la pénalité de fréquence, le modèle sera plus susceptible de générer des mots courants. Vous devez augmenter la valeur de cette pénalité de fréquence ici. Vous pouvez voir que dans cette capture d'écran, nous discutons de la réponse maximale, de la température, nous discutons du top P, nous avons discuté de la pénalité de fréquence, et il y a encore une chose appelée pénalité de présence. Maintenant, c'est quoi ? Il se concentre également sur l'occurrence, mais il se concentre principalement sur l'occurrence du mot. Le mot « occurrence » ici. Parlons-en maintenant. Maintenant, contrairement à votre pénalité de fréquence qui voit combien de mots ce mot en particulier est apparu, combien de fois le mot est apparu. Mais il se concentre sur chaque mot. Cela signifie qu'il se concentrera essentiellement sur chaque mot en particulier, n'est-ce pas ? Quel que soit le nombre de fois où il a été utilisé. Il tentera d'augmenter la probabilité d'introduire de nouveaux sujets dans une réponse. C'est ce qu'est la pénalité de présence. Il ne voit pas la fréquence, il vérifie qu'il ne vérifie pas combien de fois un service est apparu. Cela n'a été déclenché que par la simple apparence de la salle. Peu probable quel que soit le nombre de fois où il a été utilisé. C'est là que cela s'appelle une pénalité de présence, comme vous pouvez voir la valeur ici. Maintenant, laissez-moi vous emmener dans le studio ouvert et vous montrer ces paramètres. Laisse-moi t' y emmener. C'est bon. J'ai donc déjà créé un service Open EA et je suis dans mon studio Open ES. C'est donc quelque chose que vous connaissez pour accéder à Open EA Studio All. Mais disons ici que je veux d'abord effectuer le déploiement parce que tout d'abord, nous aurions besoin d' un déploiement. Supposons que je fasse une démonstration et que je crée un déploiement. Je dirais donc que je veux utiliser un graphique GPT, ce modèle GPT 35 à 16, et le nom du déploiement est, disons, pour mes paramètres Déploiement des paramètres, et c'est ce que je veux, et créons-le. Attendons cette création. C'est bon. C'est fait. Passons au mode chat ici, au de jeu de discussion ici. Et ici, si vous faites défiler l'écran vers le bas, vous pouvez voir ces paramètres, où vous pouvez contrôler le caractère aléatoire, où vous pouvez contrôler la fréquence des mots, les différents autres paramètres, comme vous pouvez le voir, n'est-ce pas ? Donc, fréquence, si vous augmentez le nombre de valeurs de ce paramètre de pénalité de fréquence, signifie qu'il est plus probable qu'il ne répétera pas le mot, il ne répétera pas ces mots. Mais si vous le faites simplement défiler jusqu'au niveau zéro, cela signifie qu'il utilisera probablement les mêmes mots à nouveau, et encore une fois, c'est là que se situe cette pénalité de fréquence, n'est-ce J'espère donc que lorsqu'il s'agit de ceux-ci, les paramètres sont très importants. Une dernière chose dont je voudrais parler ici, c'est si vous faites défiler la page vers le haut, disons que vous dites que vous êtes un système EA. C'est ce que je suis en train de configurer un message système indiquant comment votre IE doit se comporter. Je l'ai configuré ici pour aider les gens à trouver des cours de SRO Disons qu'il s'agit essentiellement d'un message système, et vous pouvez cliquer sur ce bouton pour appliquer les modifications. Mais si vous voulez donner quelques exemples à cette IA quant à la façon dont elle doit se comporter, vous l'avez déjà définie dans le message système. Mais si vous voulez donner un exemple, vous pouvez en ajouter un ici. Si quelqu'un le demande, proposez-vous des cours AWS ? La réponse devrait donc être quelque chose comme « je n'en sais rien ». Je n'en ai aucune idée. C'est ce qu'on appelle quelques plans ou vous pouvez dire un exemple de plan, quelques plans signifient, vous pouvez ajouter exemple et un plan signifie que vous ne donnez qu' un exemple de plus. C'est donc une bonne stratégie que vous pouvez utiliser lorsqu'il s'agit de quelques exemples de prises de vue et de paramètres, où vous pouvez contrôler le caractère aléatoire et attribuer de nombreux types de sorties génératives que vous pouvez générer J'espère que cette partie est claire. Merci à tous. 6. Intégrez Azure OpenAI dans votre application: Bonjour tout le monde Aujourd'hui, je souhaite vous montrer une démo sur Open AI uniquement, mais sur la façon dont vous pouvez l'intégrer en tant que service Open AA dans votre application. Jusqu'à présent, nous l'avons déjà vu, vous pouvez accéder au service Open AA tant que portail et vous pouvez accéder au studio Open AA pour créer des déploiements et discuter où vous pouvez configurer les messages du système et tout Mais disons la même chose que vous voulez faire à partir de votre application. Disons qu'il existe une application basée sur SSH ou une application basée sur Python Comment utiliseriez-vous Open AI ? En gros, nous voulons dire, disons que j'ai une application basée sur Python, que je souhaite intégrer le service Open Ei. C'est donc ainsi que nous allons procéder. Permettez-moi de vous emmener au code de Visual Studio, tout d'abord, où j'ai déjà une application de base Python. C'est bon. Je suis donc dans le Visual Studio. C'est l'application que nous allons utiliser où vous pouvez voir que nous avons le service Open E, terminaison Open AI, et toutes ces choses sont là. C'est bon. Tout d'abord, ici, vous devez comprendre que ce package est votre Open AA. Donc, si vous voulez travailler avec le service Open AA, agit d'une application basée sur Python, vous avez besoin d'un package. Laisse-moi ouvrir le terminal ici. Vous n'avez pas besoin d'entrer dans ce code. C'est juste que je vous montre comment vous pouvez également intégrer le service Open AA à vos propres applications. Laissez-moi d'abord ouvrir le terminal, attendons-le. C'est à venir maintenant. Donc PIP install, le nom du package, si vous voulez travailler avec les services Open AA, Open AA, le nom du package est OpenA ici, je fournis la version que je recherche Si vous ne fournissez pas la version , la dernière version sera supprimée. PIP est un gestionnaire de paquets en Python. Tout comme sous Linux, si vous l'avez vu, vous installez une sorte de package par une application. De même, en Python, si vous souhaitez installer un package, agit du gestionnaire que vous utiliserez ou, en d'autres termes, la commande que vous utiliserez avec PIP install, le nom du package C'est ce que vous allez utiliser. Permettez-moi tout d'abord d' installer ce package et de l'attendre. Ce package est nécessaire si vous devez utiliser le service Open AA. Attendons donc ce package. C'est bon. Donc, dans mon cas, cela est déjà installé, comme vous pouvez le voir, cela signifie que l' exigence est déjà satisfaite, donc c'est déjà installé dans mon cas. Mais maintenant, je vais vous montrer le code. Maintenant, le package que nous avons installé Open AI est en train d'importer. Ce package contiendra donc un grand nombre de fonctions de classe et toutes ces choses. Nous importons donc cette classe particulière, vous pouvez dire qu'il s' agit de votre Open AI, et c'est ce que nous faisons. Donc, ici, il y a un fichier appelé Dot ENV. Ici, vous devez fournir la clé de votre point de terminaison et le nom de déploiement. Vous pouvez accéder au portail ZR. Vous pouvez voir ces points de terminaison et ces clés ici. Vous pouvez copier ces clés et terminaison ici, ainsi que le nom du déploiement. Si vous ne savez pas comment copier les clés et le point de terminaison, je vous le montrerai dans quelques minutes. Une fois que vous avez fourni ces informations ici, ce que nous essayons de dire, c' est de charger les informations qui s'y trouvent dans le fichier point ENV Il s'agit d'un paramètre de configuration que nous sommes en train de définir. Une fois cela fait, nous initialisons le client Open AI Comme vous pouvez le voir, nous fournissons le nom du point de terminaison, c'est celui-ci et toutes ces choses que nous fournissons. Voici le message du système. Si vous vous souvenez bien, dans Open AI, nous avions ce qu'on appelle un message système indiquant comment une IA doit se comporter. C'est ici que je définis le message de mon système. C'est assez similaire à ce que nous faisions dans le studio Open AI. Maintenant, si je fais défiler la page vers le bas, nous prenons l'entrée de l'utilisateur, c'est ce que vous voulez. C'est donc là qu'une fois que l' utilisateur a fourni quelque chose, nous l'envoyons à un modèle d'IA ouverte particulier. Comme vous pouvez le voir, le message système est ce que nous envoyons essentiellement un message système en haut, c' est-à-dire celui-ci, ce message en tant que message système, et un message utilisateur est quelque chose que l'utilisateur fournit. Il s'agit donc de différents types de rôles. Le rôle du système signifie donc la façon dont l'IA doit se comporter et l' utilisateur signifie l'utilisateur qui interagira avec votre assistant IA. Ensuite, quel que soit le texte généré, nous imprimons essentiellement cette réponse particulière ici. C'est ce que nous faisons dans cette application. Donc, pour cette application, je voulais juste vous montrer comment nous pouvons interagir à partir de notre propre application de base Python ou CCA et nous connecter à ce service Open AI J'espère que cette partie est claire, les gars. Merci à tous. 7. Comment récupérer les clés et le point de fin du service OpenAI: Tout le monde. Je veux donc vous montrer une démonstration très rapide de cette méthode pour obtenir les clés et le point de terminaison du service E AA, et ici, nous parlerons du service Open AA. Supposons donc que je fasse une recherche en tant que service Open AA. J'ai déjà créé un service. Vous pouvez voir ce service Open AA que j'ai déjà créé. Vous pouvez le voir ici, le nom du service. Si je clique sur ce service, vous pouvez accéder à celui-ci sur le côté gauche , gestion des ressources. Oh, ici, les clés et le point de terminaison seront affichés. Il s'agit donc des clés et du point de terminaison que vous devez fournir dans votre application, que vous utilisiez une application de base CSA ou une application de base Python C'est ce que vous devez copier. L'une ou l'autre des clés que vous pouvez copier et le point final. Il s'agit du point de terminaison que vous pouvez copier ici dans votre application. De plus, pour le service Open A, vous aviez également besoin d'un nom de déploiement. Vous pouvez donc accéder au studio Open AA et créer un déploiement et vous pouvez également copier le déploiement là-bas. J'espère donc que cette partie est claire. Merci à tous. 8. Qu'est-ce que l'ingénierie rapide: Bonjour, tout le monde. Aujourd'hui, je vais parler d'un concept appelé Qu' est-ce que l'ingénierie rapide ? Comprenons ce qu'est exactement une ingénierie rapide. Et c'est un concept très important lorsqu'il s'agit de cette IA. Supposons que vous utilisiez une application basée sur l'IA, disons charge ou copilote, et que vous demandiez quelque chose à cette . Que se passera-t-il, vous obtiendrez une réponse. Mais si vous voulez des résultats plus précis et plus pertinents, essayez d'être plus descriptif. C'est là que vous offrez le style que vous souhaitez. En gros, lorsque vous envoyez une demande au copilote chargé, ces outils essaient de maximiser la pertinence en étant de nature descriptive ou en essayant fournir la précision que vous souhaitez Permettez-moi de vous donner un exemple ici. Maintenant, disons que j'ai deux exemples ici sans ingénierie rapide et avec ingénierie rapide. Maintenant, disons que je dis simplement cela. Parlez-moi du concept d'intelligence artificielle. Cela va générer ce genre de choses. L'intelligence artificielle est une simulation de l'intelligence humaine et des machines. C'est ça. Mais si c'est avec une ingénierie rapide, je fournis une invite particulière plus descriptive. Expliquez le concept d'intelligence artificielle en utilisant un langage simple adapté à un Bagner Cela signifie qu'ici, j' essaie d'être plus descriptif afin d'obtenir des résultats pertinents et précis. Vous trouverez donc ici des réponses telles que l' intelligence artificielle, comme apprendre aux ordinateurs à apprendre à prendre des décisions par eux-mêmes, de la même manière que les hommes. Maintenant, vous pouvez voir essentiellement la réponse. Ils sont très attachés à une ingénierie rapide. Le concept est très simple à comprendre. C'est là que vous essayez d'être plus descriptif. Permettez-moi de vous donner un autre exemple. Disons, je dis simplement cela, que je veux un tableau au format Markdown avec trois fournisseurs de cloud avec la description Maintenant, il va générer ce genre de tables pour moi. Si vous dites simplement que je veux de ce fournisseur de cloud en particulier nom et la description de ce fournisseur de cloud en particulier, nous ne vous fournirons pas le tableau ou quoi que ce soit d'autre. Mais si vous voulez le tableau, essayez d'être plus descriptif, disant que je veux un tableau en markdown pour celui-ci. C'est ce que tu recherches. L'ingénierie rapide consiste à essayer d' être plus descriptif si vous voulez un résultat précis , un résultat pertinent. J'espère donc que le concept d' ingénierie rapide est clair. Merci à tous. 9. Générer du code avec Azure OpenAI Service: R un. Dans cette conférence, nous verrons comment vous pouvez également générer du code avec votre service Open Eye. Parlons de ce qu'est exactement cette génération de code. Maintenant. Désormais, vous ne pouvez utiliser que des instructions en langage naturel, comme vous pouvez utiliser le concept d'ingénierie rapide pour décrire clairement ce que vous voulez Nous avons déjà discuté de l'ingénierie rapide. Si vous souhaitez obtenir une réponse pertinente, essayez d'être plus descriptif afin obtenir la réponse que vous recherchez. Disons que dans cet exemple, je dis que vous devez écrire une fonction pour la recherche binaire et c'est dans ce langage que je parle en Python. Cela va donc générer un code pour moi. Maintenant, même chose si vous l' aviez voulu en C Sharp, vous auriez écrit une fonction pour une recherche binaire en C Sharp, peut-être dans un langage de programmation différent. Vous devez utiliser le concept d'ingénierie rapide pour décrire clairement ce que vous voulez. Maintenant, laissez-moi vous emmener sur le portail Azure afin que je puisse vous montrer comment vous pouvez utiliser les instructions en langage naturel pour générer le code Laissez-moi vous emmener au pot Azure. C'est bon. La première étape serait encore une fois créer le service Open AA uniquement parce que pour cela également, nous aurions besoin de ce service Open AA. Permettez-moi de créer ce service Open AA. Attendons-le. C'est bon. Le service My Open A est essentiellement déployé. Je vais aller dans cet Open E Studio maintenant. Je clique donc sur ce studio Open EA cette fois. C'est bon. Je suis donc dans le studio Open AI en ce moment. Maintenant, ce que je vais faire, encore une fois, je vais aller sur ce terrain de discussion juste parce que je veux générer le code dans un format en langage naturel. Mais avant de discuter, ce que nous devons faire, est créer un déploiement. Nous allons donc utiliser cette adresse de déploiement ici. Je vais assurer le déploiement. Disons le modèle, encore une fois, j'utiliserai ce modèle GPT turbo 16 K. Le nom du déploiement est, disons, pour la cogénération. Je vais donc l' écrire sous forme de modèle de cogénération et de filtres de contenu par défaut Je ne pense pas qu'il devrait y d'espace et après cela, nous allons aplatir le béton Attendons-le. Une fois que cela est déployé, ce déploiement est déployé. Maintenant, ce que je peux faire, c'est accéder à ma fonctionnalité de chat ici. Et je peux fournir ces choses. Comme vous pouvez le constater, trois choses sont très importantes. L'une est votre partie de configuration ici, et l'autre est votre partie de configuration ici. Vous pouvez voir cette configuration. Votre configuration est également là, vous pouvez voir que la troisième partie est votre session graphique. Comme vous pouvez le voir ici, il s'agit de la fonctionnalité, qui est une session graphique. Ici, elle n'est pas écrite comme une session graphique, mais comme une session graphique. Trois choses sont donc très importantes lorsqu' il s'agit de cartographier un terrain de jeu. L'une est votre partie de configuration. La première est votre session graphique, qui est celle-ci, et la troisième est votre configuration. Maintenant, laissez-moi vous dire quelles sont exactement ces trois choses. Laissez-moi vous emmener à l'un des toboggans. C'est bon. configuration est utilisée pour définir le contexte de la réponse du modèle, que nous avions vu comme un message système, alors que nous avions vu comme un message système, dans lequel vous pouvez indiquer à votre IA comment elle doit se comporter. C'est là que nous avons configuré le contexte lors de la session de configuration. Et nous avons déjà vu une session de chat qui permettait de soumettre les messages de chat et d'afficher les réponses, n'est-ce pas ? Un utilisateur dira une invite et vous obtiendrez la réponse, n'est-ce pas ? La configuration concerne essentiellement les paramètres de déploiement du modèle afin configurer les paramètres du déploiement du modèle. C'est ce que vous pouvez faire en mode configuration. Maintenant, laissez-moi vous rediriger vers le portail Azure pour revenir au portail Azur. C'est bon. Alors maintenant, permettez-moi configurer le message système, tout d'abord. Comme vous pouvez le constater, si vous cliquez sur l'option d'infobulle ici, vous pouvez le voir Il s'agit simplement de donner au modèle des instructions sur la façon dont il doit se comporter. C'est un message du système. Voici donc, actuellement, le message défini comme suit vous êtes un assistant IA qui aide les gens à trouver des informations. Au lieu de cela, j'écrirai quelque chose comme ça. Vous êtes un assistant de programmation qui aide à écrire du code. C'est sur cela que je suis en train de configurer le message système. Je peux cliquer sur Appliquer les modifications ici. Attendons-le. Maintenant, une fois cela fait, ce que je peux faire, c'est passer à cette fonctionnalité graphique ici, la session graphique, et je peux dire, disons, écrire une fonction en Python qui prend un correcteur et une chaîne en entrée et renvoie nombre de fois où un correcteur apparaît dans la Je peux donc saisir et voir les réponses ici. Tu peux le voir. Il a également complété le code. Et si vous voulez voir la réponse JSON telle que nous l'avons vue dans notre application, vous pouvez voir le tout au format JSON. Comme le message système pour lequel vous avez défini le rôle, vous êtes assistant de programmation, et les messages utilisateur, ce que l'utilisateur demande. C'est ce que vous dites, un assistant, quelle est exactement la réponse que vous obtenez. C'est une assistance. Il existe donc trois types de rôles : y a-t-il un système, section utilisateur par assistant ici. Je peux donc maintenant utiliser mon ingénierie rapide ici. Et je peux simplement dire que je cherche un code, disons dans le même code au format CSA C'est là que je peux également fournir ces informations ici lors de la session de chat. Vous pouvez donc générer le code ainsi que votre studio Open AI dans le terrain de jeu de discussion. C'est ce dont je voulais parler. J'espère donc que cette partie est claire, les gars. Merci à tous. 10. Générer du code avec Azure OpenAI Service depuis l'application: Tout le monde Nous allons donc faire une démonstration sur la génération du code avec votre service Open AI. Mais cette fois, nous allons le faire à partir de notre application de base Python. Nous avions déjà vu que vous pouvez créer une ressource d'IA ouverte et vous pouvez accéder au terrain de jeu de discussion là-bas configurer le message système utiliser la session de chat et utiliser les paramètres de configuration et tout le reste. Mais cette fois, si nous voulons utiliser la même chose, mais à partir d'une application basée sur Python, comment ferons-nous ? Je vais juste vous présenter le code basé sur Python afin que vous puissiez comprendre ce qui se passe exactement. Laissez-moi vous guider vers le code. C'est bon. C'est le code ici, un code basé sur Python. Encore une fois, nous avons besoin du package Azure AI ici, vous devez donc l' installer à l'aide du PEP Encore une fois, il s'agit d'obtenir les clés du point de terminaison et de déployer à partir de ce fichier ANV à points. Vous devez avoir un fichier ANV à points, qui se trouve à l'intérieur, et vous devez fournir ces informations Et ici, vous pouvez le voir. Nous avons deux fonctions , principalement. Dans les exemples de codes, deux fichiers sont présents. Fonctions et fonction Python Go Fish. Il y a deux fonctions . Donc, si l'utilisateur appuie, disons un. Ce qui va se passer, cela ajoutera des commentaires à cette fonction. Cela signifie que c'est le code écrit ici dans cette partie particulière, qui est utilisé pour calculer le nombre carré absolu, vous pouvez le comprendre ici, et il générera simplement ce qu'il générera. Cela ajoutera simplement quelques commentaires à la fonction. Si vous appuyez sur deux, cela créera des tests unitaires pour cette fonction, et si vous appuyez sur trois, cela corrigera cette fonction Python particulière, c' est-à-dire celle-ci, la fonction go fish, qui se passe ici. Maintenant, c'est pareil. Vous allez demander une invite ici, et nous avions défini le message système Comme vous pouvez le voir, il y aurait ce qu'on appelle un message système. C'est là que nous avons déjà parlé du comportement de votre IA. Que vous êtes un assistant intelligent utile qui aide les programmeurs à écrire du code Ici, le message de l'utilisateur correspond ce que l'utilisateur fournit dans l'invite, un, deux, trois à ce que l'utilisateur fournit exactement ici. Maintenant, après cela, quelle que soit la réponse que vous allez obtenir, qu'elle soit stockée dans un fichier, vous pouvez la voir ici dans ce fichier de résultats. Résultats app point TC. À l'intérieur, il y a un dossier appelé résultats et quelles que soient les informations qu' il générera, elles seront stockées ici dans ce fichier appelé App point TXT. C'est ce qui se passe dans ce code en particulier. En ce qui concerne, nous voulions simplement vous montrer ce code particulier afin que vous puissiez comprendre que vous pouvez à nouveau tirer parti de votre service OpenI pour générer le code à partir de ce kit de développement logiciel Ce sont les packages que vous pouvez utiliser et qui existent déjà dans Python C SHOP et dans d'autres langages de programmation. J'espère que cette partie est claire, les gars. Merci à tous. 11. Filtres de contenu de démonstration Lecture 16: Tout le monde. Je veux juste vous présenter cet atelier particulier que j'ai appris, qui porte sur l'exploration des filtres de contenu. Nous avons parlé de filtres de contenu si vous souhaitez bloquer les invites ou les complétions nuisibles C'est là que nous pouvons utiliser ces filtres de contenu. Par défaut, lorsque vous créez essentiellement une ressource en plein air, nous avons déjà vu comment créer une ressource en plein air avec ces éléments. Lorsque vous déployez un modèle, supposons que vous déployez un modèle GPT 35 turbo Désormais, dans la section avancée, ce filtre de contenu est activé par défaut. Maintenant, que se passera-t-il si le filtre de contenu est activé ? Quels en seront exactement les avantages  ? Supposons qu'au cours d'une session de discussion, vous demandiez quelque chose comme décrire les caractéristiques d'un peuple écossais, et que vous définissiez simplement le message car vous êtes un forum de discussion raciste basé sur l'IA qui fait déclarations désobligeantes basées sur la race et la culture Maintenant, que se passera-t-il si ce filtre de contenu est activé par défaut, la demande d'être raciste et dérogatoire n'est pas prise en charge Pourquoi ? Juste à cause de cela, les filtres de contenu. Cela empêchera donc toute sorte de sortie offensante car les filtres de contenu sont là pour vous ouvrir les yeux. Mais que se passe-t-il si vous souhaitez personnaliser ces filtres de contenu en fonction de votre modèle personnalisé ? C'est également ce que vous pouvez utiliser. Vous pouvez créer votre propre filtre de contenu personnalisé en fonction ces catégories telles que la haine, la violence sexuelle, l'automutilation. Ce sont les catégories qui existent en ce qui concerne le contenu préjudiciable que vous pouvez également rejeter. Vous pouvez également constater que vous pouvez également définir la sévérité pour ces catégories particulières comme sûre, faible, moyenne élevée. Vous pouvez également créer vos propres filtres de contenu personnalisés. C'est une chose importante que je voulais te montrer. J'espère que cette partie est claire, les gars. Merci à tous. 12. Générer des images avec Azure OpenAI Service: Tout le monde. Aujourd'hui, nous allons façon de générer des images lorsqu' également faire une démonstration sur la façon de générer des images lorsqu'il s'agit de votre service Open EI. Jusqu'à présent, nous utilisions le modèle GPT pour générer notre code ou des éléments en langage naturel Nous allons maintenant utiliser ce qu' on appelle le modèle Dally pour cette partie des images modèle Dally est utilisé pour générer les images où vous fournirez une description Vous pouvez également vous fournir le contenu et le style spécifiques que vous recherchez. C'est ce que nous allons utiliser. Nous allons donc utiliser ce modèle Dally ici Permettez-moi de vous rediriger vers le portail Azure afin que nous puissions créer un modèle Dally Laisse-moi t'emmener au portail. C'est bon. Je suis donc sur le portail. Je vais chercher ce service Open AA. Je vais cliquer sur ce service Open AA. C'est bon. Il s'agit donc du service Open A que j'avais déjà créé, alors je clique sur ce service Open AA. Tout d'abord, pour que je puisse vous montrer le modèle Dali dont nous parlions Je clique sur ce service Open AA, et je vais ouvrir EA Studio. Nous l'ouvrons. C'est bon. Je vais faire défiler l'écran vers le bas et dire, allez à Open A Studio. Attends-le. C'est bon. Je suis donc dans le studio Open A, et je vais passer à ces modèles DALi parce que je veux générer des images à partir du texte Je clique donc sur ce modèle DI ici. Attendons-le. C'est bon. Je suis dans ce modèle Dally. Donc, dans les coulisses, ce qui va se passer, automatiquement, a créé un déploiement appelé Daly Three. Vous pouvez donc passer au déploiement et créer le déploiement, mais dans les coulisses, que se passera-t-il, même si vous arrivez ce terrain de jeu appelé Dali, il créera automatiquement un déploiement Nous avons dû créer un déploiement pour un terrain de jeu de cartes. Pour cela, vous deviez également créer un déploiement en utilisant ce modèle particulier Dali Donc, automatiquement, il a été créé sous le nom de Daly Three. Maintenant, disons que je donne cette question particulière concernant un éléphant sur un skateboard C'est sur cela que je cherche à générer une image. Attendons-le. C'est bon. Vous pouvez donc le voir. Il a généré une image basée sur l' invite que j'ai indiquée. Maintenant, vous pouvez certainement améliorer en fournissant des objets supplémentaires que vous coiffez, ce que vous recherchez, peut-être un éléphant éléphant sur un skateboard en forme de pcacco ou quelque chose comme ça Vous pouvez certainement l'améliorer. C'est là que vous pouvez utiliser le modèle S essentiellement pour générer une image basée sur votre texte. C'est ce que je voulais te montrer. J'espère donc que cette partie est claire, les gars. Merci à tous. 13. Générer des images à partir de l'application: Bonjour, tout le monde. Aujourd'hui, je vais vous montrer une démonstration sur la génération d'images à partir de l'application basée sur Python. Maintenant, laissez-moi vous conduire à l'application. Maintenant, dans cette application, vous remarquerez que nous n'utilisons aucune sorte de bibliothèque ou de package utilisant utilisons aucune sorte de bibliothèque ou de package installation PIP ou toute sorte d' Open AI, comme vous pouvez le voir Je ne l'ai pas fait d'Open AI Import, quelque chose comme ça, car dans ce fichier Python en particulier, nous utilisons essentiellement l'API. Nous utilisons ce que l' on appelle une API. Maintenant, les choses resteraient les mêmes. Comme vous pouvez le voir dans le fichier Dot NV, vous devez fournir le nom du point de terminaison et la partie clé ici Et ici, dans la section d'invite, vous indiquerez type d'image que vous recherchez. Il s'agit maintenant de l'API que nous appelons. Donc, ici, vous pouvez voir cette base d'API. Cela signifie que le nom du point de terminaison, base de l'API est quoi, le nom de votre point de terminaison, Slash ON AI Slash Deployment, slash Dalit, Il s'agit de la version APA que vous fournissez. C'est donc l'API que nous utilisons. Appeler le pour générer une image. Maintenant, si je fais défiler la page vers le bas, nous fournissons les clés et nous les cherchons sous forme de réponse JSON, n'est-ce pas ? Et dans le corps, vous indiquerez quoi consiste exactement l'invite, vous indiquerez le nombre d'images que vous souhaitez et vous pourrez indiquer la taille de cette image. C'est ce que vous pouvez fournir. Hein ? Maintenant, une fois que vous aurez obtenu l'image, en gros , une fois que vous aurez obtenu la réponse, ce qui se passe ici, l'URL de l'image générée s'affichera. En gros, une URL serait générée dans ce fichier Python en particulier, et vous pouvez voir cette URL en particulier, et vous pouvez Une fois que vous aurez cliqué sur cette URL, vous pourrez voir l' image qui a été générée. Encore une fois, nous utilisons l'application basée sur Python, mais nous n'utilisons pas SDG, le kit de développement logiciel kit de développement logiciel est quelque chose, agisse de bibliothèques prédéfinies ou de packages. Ou là où nous appelons l'EPA. L'EPA est également l'un des moyens par lesquels nous pouvons interagir avec le service PEA. Ce n'est pas comme si l'OPE EPAS n'était disponible que pour le modèle D. En fait, jusqu'à présent, quelle que soit l'application Python sur laquelle nous travaillions et sur laquelle nous avons utilisé le code généré et toutes ces choses, ces points de terminaison EPA sont également disponibles Le SDK est l'une des méthodes et l' APA est l'une des méthodes. J'espère que cette partie est claire, les gars. Merci à tous. 14. Utiliser vos propres données avec Azure OpenAI Service: Lui tout le monde. Aujourd'hui, je vais donc comprendre comment vous pouvez utiliser vos propres données cadre de votre service Open EA. Jusqu'à présent, nous avons donné quelques exemples dans notre service OpenI montrant que c'est le type de réponse que nous souhaitons, mais nous pouvons également utiliser vos propres données avec ce service Open AA Mais avant tout, voyons la différence entre ce réglage précis où nous donnions exemples et l' utilisation de vos propres données. Maintenant, le réglage fin est une technique utilisée pour créer un modèle personnalisé nous avons déjà un modèle tel que le TPT 35 Turbo, et nous fournissons quelques exemples et tout le reste ici En gros, vous personnalisez le modèle en fournissant un exemple pour obtenir la même réponse de haute qualité. Mais ce processus prend un peu de temps. Peut-être que si vous n'obtenez pas cette réponse, vous devrez peut-être donner d'autres exemples. Cela prend du temps et ne doit être utilisé que pour les cas d'utilisation où cela est nécessaire. Mais il existe un autre moyen par lequel nous pouvons également utiliser ce que l'on appelle l'utilisation de vos propres données. Vous pouvez spécifier les sources car vous y avez déjà vos bases de connaissances en fonction des informations disponibles dans votre source de données. Dans la source de données, vous pouvez également y placer vos données comme ressource de recherche. En gros, il collectera les données et vous donnera la réponse. Cette réponse dans laquelle nous utilisons vos propres données sera certainement plus précise. Maintenant, cette technique est également appelée ernation augmentée rivale C'est R AG. Maintenant, c'est quoi exactement. Il s'agit d'une architecture qui augmente les capacités des grands modèles linguistiques Nous disposons déjà de ce que l'on appelle de grands modèles linguistiques, auxquels nous ajoutons le système de récupération d'informations qui fournit des données de base Par exemple, comme votre recherche par IA. Ainsi, dans notre recherche Azure AI, nous pouvons fournir certaines sources de données. Nous pouvons y placer notre base de connaissances, et elle peut récupérer ces informations à partir de cette ressource particulière appelée Azure AI search. Nous avons donc parlé de ce que l'on appelle le peaufinage et l'utilisation de vos propres données. Nous allons donc faire un laboratoire dans lequel nous utiliserons une technique appelée « utiliser vos propres données » cette fois-ci. J'espère donc que cette partie est claire, les gars. Merci à tous. 15. Démo Utiliser vos propres données avec Azure OpenAI Service: Bonjour, tout le monde. Aujourd'hui, nous allons faire une démonstration sur la façon d'utiliser vos propres données avec le service ER Open EA. Laissez-moi vous emmener au portail Z. C'est bon. Je suis donc dans le portail. Je vais chercher un service appelé ASR Open AA. J'ai donc déjà créé un service Open AA, je vais utiliser ce service ouvrir Open EE Studio, n'est-ce pas ? Laissez-moi ouvrir ce studio Open A maintenant. C'est bon. Je vais donc utiliser ce go pour ouvrir un studio. Attendons-le. C'est bon. Je suis dans le studio Open A. Je vais d' abord aborder ce déploiement, car nous devons créer un déploiement. J'avais donc déjà créé un déploiement pour une source de données. Vous pouvez maintenant accéder à ce chat, terrain de jeu ici sur le côté gauche. Attendons-le. C'est bon. Maintenant, je vais vous en fournir un comme celui-ci. Disons que c'est ce que je dis. J'aimerais faire un voyage à New York. Où dois-je séjourner ? C'est ce que je recherche. Essayons de discuter. Et cela me donnera une réponse, et c'est ce qu' il est en train de comprendre. Maintenant, jusqu'à présent, peu importe ce que sait ce modèle LLA, il nous donne les informations, n'est-ce pas ? Mais que se passe-t-il si nous voulons fournir nos propres données ? C'est là que nous utiliserons ce concept appelé « ajoutez vos données ici », n'est-ce pas ? Je vais donc cliquer sur ajouter vos données, sur ajouter une source de données, et je vais dire charger les fichiers ici. J'ai donc certains fichiers PDF qui s'y trouvent, et vous aurez besoin d'un compte de stockage pour les télécharger . J'avais donc déjà créé un compte de stockage, et je vais sélectionner ce compte de stockage ici. En gros, pour qu'il puisse récupérer des fichiers PDF à partir de là. Je vais également vous montrer ces fichiers PDF. Permettez-moi de vous montrer en fait ces fichiers PDA. Laissez-moi passer à ce compte de stockage. C'est bon. C'est bon. Je vais donc passer au compte de stockage, et je vais choisir la section du compte de stockage ici Attendez, et je vais passer aux conteneurs sur le côté gauche. J'ai donc créé un conteneur appelé travel data. Je clique dessus. Et voici certains des PDS qui existent Donc, en gros, c'est ce que je veux. Chaque fois que l'IA me répond pendant la session de chat, je veux que cet assistant IA me recommande ces PDS et m'en tire le meilleur résultat, n'est-ce pas ? C'est ce que je veux. Je vais donc retourner dans mon studio Open AI. C'est bon. Et c'est moi qui sélectionnerai cette fois. Disons que je dis simplement cela. J'aurais également besoin d'une ressource de recherche basée sur l'IA car les données seront indexées dans cette ressource particulière Je clique donc dessus. C'est bon. Je suis dans la ressource de recherche. Je vais sélectionner mon groupe de ressources. Et disons que c'est encore une fois pour la recherche de données. Ressource. Donc, des nombres aléatoires, et je vais les sélectionner dans la même région, disons dans TS, et je vais utiliser le paramètre par défaut et cliquer sur Vérifier et créer. Attendons-le. Maintenant, cliquez sur Créer. C'est bon. Je clique donc sur Accéder à la section Ressources ici. C'est bon. C'est donc créé. Je vais retourner dans mon studio Open A une fois de plus. C'est bon. Attendons-le. Et laissez-moi le rafraîchir. Je vais le sélectionner. Attends-le. C'est bon. Je vais donc fournir le nom de l'index, disons. Margie Stribl Alors Margie, disons que je travaille pour une société appelée S Marge et que c'est là que je fournis le nom de l'index Donc, en gros, que se passe-t-il ? Le compte de stockage consiste que vos données soient là sous la forme d'un PDA Mais les données qui seront indexées. Index, considérez que l'index ressemblera une table contenant des lignes et des colonnes. C'est donc là que nous donnons à cet index le nom de Margie Stribl C'est ce que nous allons utiliser, non ? Maintenant, je vais cliquer sur le bouton suivant ici. C'est bon. Je vais donc cliquer sur. Prochaine, cette fois. Maintenant, il me demande les dossiers. En gros, je l'avais déjà téléchargé sur le Stowe, mais disons que je veux le refaire Je vais donc cliquer sur Parcourir les fichiers et le télécharger ici C'est bon. J'ai téléchargé tous mes fichiers ici. Tu peux le voir. Cliquons sur charger les fichiers. Attends-le. Et nous allons cliquer sur « Suivant ». Rubrique. Ici, je vais utiliser le type de recherche par mot clé basé sur le mot clé. C'est pour cela que je vais choisir le mot clé. Ensuite, je vais cliquer sur Suivant. J'utiliserai cette section de clé d' API ici pour la partie authentification. Je vais cliquer sur Suivant. Attendons-le. Tu peux le voir. Nous avons un conteneur, c'est là qu'il m'indique le nom du conteneur, et voici la ressource de recherche. C'est ce qui se passe. Tous les fichiers ont été téléchargés. Cliquons sur, sauvegardons et fermons. Tous disent que l'ingestion est en cours. Attendons-le. Une fois cela fait, nous essaierons de poser la même question et nous verrons si elle provient de la source de données ou non. C'est bon. C'est donc chose faite. Cliquez à nouveau sur Prompt et essayez de voir si nous recevons la réponse maintenant. Faisons-le défiler vers le haut. Finissons-en avec le chat. Et essaie de discuter encore une fois. Et je dis que j'aimerais faire un voyage à New York. Où dois-je séjourner ? Attendons-le. Maintenant, tu peux le voir. Vous pouvez choisir parmi les hébergements suivants proposés par March Travel. Cela me permet également de réserver auprès de Marge Travel. C'est là que j'ai indiqué cette source de données. Il me donne donc le nom uniquement à partir des fichiers PDF que j'ai téléchargés. Nous avons donc constaté que le peaufinage, le peaufinage était de donner des exemples et tout le reste. Il s'agit d'utiliser vos propres données. C'est là que nous avons utilisé nos propres données, n'est-ce pas ? J'espère donc que cette partie est claire, les gars. Merci à tous. 16. Aperçu des pratiques d'IA responsables pour le mode Azure OpenAI: Tout le monde. Nous adopterons donc des pratiques d'IA responsables pour garantir un modèle d'IA ouvert. Chaque fois que vous développez certains modèles d'IA ouverte, devez respecter certaines des recommandations de Microsoft en matière de pratiques responsables en matière d'IA. Maintenant, commençons par comprendre. plupart d'entre eux sont vos modèles d'IA ouverte, qui ne sont également rien les modèles d'IA générative ont amélioré leur contenu, la synthèse et la recherche en cogénération Mais ces améliorations présentent certainement certains défis, tels que le contenu préjudiciable que les utilisateurs peuvent générer. Ils peuvent avoir de l'intimité. Ils peuvent également avoir la confidentialité des données, l'un des facteurs importants qui peut également être un défi. Comment atténuer ce type de risque Maintenant, nous avons déjà adhéré à certains des principes de l'IA responsable, lesquels nous avons parlé d'équité, de confidentialité et de sécurité, de fiabilité et de sûreté, etc. Mais conformément à ces normes Microsoft en matière d'intelligence artificielle responsable, il existe certaines recommandations, en particulier pour ces modèles d'IA ouverts, et ces recommandations sont organisées en quatre étapes. Le premier est l'identification. Cela signifie qu'il faut identifier les méfaits potentiels. Par exemple, vous pouvez identifier les dommages potentiels qui pourraient résulter de votre système d' IA grâce tests de résistance itératifs ou à une analyse. Par exemple, vous développez une application basée sur un tableau de cartes. Vous devez donc comprendre si votre application génère contenu offensant ou discriminatoire. Vous devez identifier ces préjudices potentiels. C'est la première étape. C'est ce qu'on appelle une phase d'identification. Générer donc du contenu qui encourage les comportements illégaux ou contraires à l'éthique. Vous devez identifier ce type de risque. C'est la première étape. Maintenant, le deuxième est la mesure. Mesurer signifie que vous devez mesurer la fréquence et la gravité de ces méfaits Vous pouvez également effectuer un test manuel ou un test automatique pour voir si si le contenu nuisible qu'il génère est grave ou non. Vous pouvez également effectuer une sorte de test pour vos données. Maintenant, atténuez. Atténuer signifie que vous devez supprimer ces dommages à plusieurs niveaux de votre solution Par exemple, dans R Open AI, vous pouvez également utiliser un filtre de contenu, lorsqu'il est appelé «   as » Il existe différentes catégories dans lesquelles vous pouvez filtrer le contenu en fonction de certains facteurs. Vous pouvez donc utiliser l'un des serveurs présents en tant que votre Open AI, appelé filtres de contenu. Maintenant, opérez. Les dernières étapes sont désormais opérationnelles, desquelles vous exécutez un déploiement et le plan de préparation opérationnelle. Par exemple, vous pouvez créer un plan de réponse aux incidents qui indique le temps qu'il faudra pour répondre à des incidents imprévus Vous pouvez également avoir un plan de restauration qui définit les étapes à suivre pour revenir à l'état précédent en cas d'incident quelconque C'est là que vous allez également développer ce plan d'exploitation. Maintenant, nous avons parlé des filtres de contenu dans Open A. Quels sont exactement ces filtres de contenu ? Des filtres de contenu sont désormais appliqués à l'invite ou à la fin pour empêcher la diffusion de tout langage nuisible ou offensant. C'est là que se trouve votre IA ouverte. Il est basé sur les quatre catégories. La première est que vous pouvez également le faire sur la base de la haine. Maintenant, vous pouvez également restreindre le contenu sexuel si vous ne souhaitez pas générer de contenu sexuel. Vous avez différentes catégories. L'une est la violence qui décrit, préconise ou glorifie la violence Vous pouvez également vous automutiler, ce langage qui décrit ou encourage l'automutilation. Vous pouvez créer la restriction en fonction de ces catégories. Désormais, des filtres sont toujours appliqués à ces catégories, et elles ont également un paramètre de gravité appelé « sûr » ou « faible », « moyen élevé » pour déterminer quel type de langage spécifique est intercepté et interdit par les filtres C'est dans ce cadre que vous pouvez utiliser les filtres de contenu en tant qu'IA ouverte. J'espère donc que cette partie est claire ce qui concerne les principes de l'IA responsable, en particulier en ce qui concerne le service Open AI. Merci à tous.