Azure OpenAI und semantische Kernel-Entwicklung | Trevoir Williams | Skillshare
Suchen

Playback-Geschwindigkeit


1.0x


  • 0.5x
  • 0.75x
  • 1x (normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Azure OpenAI und semantische Kernel-Entwicklung

teacher avatar Trevoir Williams, Jamaican Software Engineer

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Einheiten dieses Kurses

    • 1.

      Einführung

      4:06

    • 2.

      Was ist ein LLM?

    • 3.

      Was ist generative KI?

      1:25

    • 4.

      Was ist Semantic Kernel?

      1:46

    • 5.

      Warum den Semantic Kernel verwenden?

      1:13

    • 6.

      KI-Agenten im Geschäftskontext verstehen

      1:40

    • 7.

      Visual Studio Code

    • 8.

      Microsoft Azure-Konto

    • 9.

      Übersicht über den semantischen Kernel

      0:35

    • 10.

      Was ist der Kern?

      2:05

    • 11.

      So erstellst du einen Kernel

      3:42

    • 12.

      Azure OpenAI-Ressource erstellen

      4:48

    • 13.

      Erstelle eine Chat-Fertigstellungs-App

      9:01

    • 14.

      Abschnittsüberprüfung

      1:03

  • --
  • Anfänger-Niveau
  • Fortgeschrittenes Niveau
  • Fortgeschrittenes Niveau
  • Jedes Niveau

Von der Community generiert

Das Niveau wird anhand der mehrheitlichen Meinung der Teilnehmer:innen bestimmt, die diesen Kurs bewertet haben. Bis das Feedback von mindestens 5 Teilnehmer:innen eingegangen ist, wird die Empfehlung der Kursleiter:innen angezeigt.

4

Teilnehmer:innen

--

Projekte

Über diesen Kurs

Entfessle die Macht der KI mit Azure OpenAI und Semantic Kernel! Dieser Kurs führt dich durch die Integration von GPT-basierten KI-Modellen in deine Anwendungen mit dem Semantic Kernel SDK von Microsoft. Lerne, wie du KI-gestützte Plug-ins erstellen, Workflows automatisieren und intelligente Agenten erstellen kannst, die die Produktivität und Entscheidungsfindung verbessern. Anhand praktischer Projekte und Beispielen aus der Praxis erwirbst du die Fähigkeiten, skalierbare KI-Lösungen auf Microsoft Azure zu entwickeln. Egal, ob du ein Entwickler oder ein Geschäftsinnovator bist, dieser Kurs hilft dir, KI für Anwendungen der nächsten Generation zu nutzen!

Triff deine:n Kursleiter:in

Teacher Profile Image

Trevoir Williams

Jamaican Software Engineer

Kursleiter:in
Level: Intermediate

Kursbewertung

Erwartungen erfüllt?
    Voll und ganz!
  • 0%
  • Ja
  • 0%
  • Teils teils
  • 0%
  • Eher nicht
  • 0%

Warum lohnt sich eine Mitgliedschaft bei Skillshare?

Nimm an prämierten Skillshare Original-Kursen teil

Jeder Kurs setzt sich aus kurzen Einheiten und praktischen Übungsprojekten zusammen

Mit deiner Mitgliedschaft unterstützt du die Kursleiter:innen auf Skillshare

Lerne von überall aus

Ob auf dem Weg zur Arbeit, zur Uni oder im Flieger - streame oder lade Kurse herunter mit der Skillshare-App und lerne, wo auch immer du möchtest.

Transkripte

1. Einführung: Hallo und willkommen zu meinem Kurs. Semantic Kernel SDK verstehen. Ich bin dein Ausbilder Tervor Williams. Ich bin Softwareingenieur, Dozent, Autor und ein Enthusiast, und es ist mir eine absolute Freude, Ihnen diesen Kurs anbieten zu können Bevor wir mit dem Kurs beginnen, wollen wir uns einige der Hauptziele ansehen, zu deren Erreichung ich Ihnen mit diesem Kurs hoffentlich helfen kann Nun wollen wir uns unter anderem ein umfassendes Verständnis des semantischen Kernel-SDK Das bedeutet, dass wir die Kernkonzepte, die Architektur und die Funktionen dieses SDK im Vergleich zur .net-Entwicklung untersuchen Kernkonzepte, die Architektur werden Wir werden uns auch damit befassen, wie wir KI-gestützte Plugins entwickeln können , die modelltauglich sind und die Anwendungsfunktionalität mit KI-Funktionen erweitern die Anwendungsfunktionalität mit KI-Funktionen Wir wollen auch untersuchen, wie wir KI-Modelle in Anwendungen integrieren können , indem LLMs verwenden , wie sie im Azure Open AI-Dienst verfügbar sind , und wie wir sie in unsere Anwendungen integrieren können Wir möchten auch sicherstellen, dass wir nach Abschluss dieses Kurses verstehen, wie wir dieses SDK verwenden können , um reale Anwendungen wie virtuelle Assistenten oder Karriere-Coaches oder Systeme zu implementieren reale Anwendungen wie virtuelle Assistenten oder , die bei der Entscheidungsfindung auf Basis von KI helfen können bei der Entscheidungsfindung auf Basis von KI Außerdem möchten wir sicherstellen, dass Sie alle Fähigkeiten, die Sie durch praktische Aktivitäten und Projekte erlernen, anwenden durch praktische Aktivitäten und Projekte erlernen können, um das Gelernte zu stärken. Einige der wichtigsten Funktionen , die dieser Kurs in One zu bieten hat, ein Überblick über das semantische Kernel-SDK sind ein Überblick über das semantische Kernel-SDK mit ausführlichen Erläuterungen seinem Zweck und seiner Rolle und dazu, wie es verwendet werden kann, um KI-Integrationen in Ihre modernen Anwendungen vorzunehmen Außerdem finden praktische Übungen statt, in denen wir alles, was wir über das SDK gelernt haben, in die Praxis umsetzen Und natürlich werden wir auf den LLMs aufbauen, die uns über Azure Open AI zur Verfügung gestellt In diesem Kurs konzentrieren wir uns auf das GPT LLM. Wir werden auch reale Anwendungsfälle haben , weil wir tatsächlich ein Coaching-System aufbauen werden , das die Anfrage eines Benutzers verarbeiten, historische Daten abrufen und dann eine personalisierte Antwort geben kann historische Daten abrufen und dann eine personalisierte Antwort geben Wir werden das auch in eine Anwendung für das Web portieren . Und wir werden uns im Laufe der Zeit mit erweiterten Funktionen wie Speicherplanung, Argumentationsfähigkeit, Konfiguration von KI mit langfristiger Unterstützung oder Aufbewahrung und verschiedenen Dingen befassen, von denen Sie im Zusammenhang mit KI hören. Wir werden uns ansehen, wie wir das semantische Kernel-SDK verwenden können , um all dies zu erreichen Bevor Sie an diesem Kurs teilnehmen, rate ich Ihnen, dass es gut ist, wenn Sie bereits mit der Programmierung von Tutent und C Sharp vertraut sind bereits mit der Programmierung von Tutent und C Sharp vertraut und Sie haben diese grundlegenden Konzepte wie objektorientierte Programmierung, Paketen und Bibliotheken und die Verwendung von ABIs Es ist gut, wenn Sie sich mit all dem vertraut gemacht haben , bevor Sie diesen Kurs belegen Auch wenn Sie sich mit Microsoft Azure auskennen , ist das gut. Sie benötigen jedoch kein tiefgehendes Verständnis, denn was auch immer Sie verstehen müssen, werde ich erklären und nur das verwenden , was für diesen Kurs erforderlich ist. Es ist auch gut, wenn Sie ein grundlegendes Verständnis von KI und KI-Konzepten und Schlüsselwörtern haben . Da ich einige Schlüsselwörter verwenden werde, werde ich versuchen, sie im Laufe der Zeit zu erklären. Aber wenn Sie dieses Wissen bereits haben, wird es für Sie einfacher sein diese Informationen anzueignen Als Empfehlung schlage ich vor, dass Sie meinen Kurs Generative KI für.net-Entwickler mit Azure-KI-Diensten belegen, in dem ich von Anfang bis Ende die verschiedenen Konzepte durchgehe , aus denen KI und generative KI bestehen, sowie die verschiedenen Dienste , die Microsoft Azure uns Generative KI für.net-Entwickler mit Azure-KI-Diensten belegen, in dem ich von Anfang bis Ende die verschiedenen Konzepte durchgehe , aus denen KI und generative KI bestehen, sowie die verschiedenen Dienste , die anbietet wir diesen Kurs abgeschlossen haben, würde sich alles, was wir hier tun, von selbst ergeben. Nun, wenn Sie bereits die Grundlagen der vorherigen drei Punkte haben, müssen Sie den Kurs wahrscheinlich nicht belegen. Aber ich gebe eine Empfehlung ab, damit Sie im Laufe der Zeit das Gesamtbild sehen können. Nachdem all das gesagt und getan wurde, möchte ich Sie zum Diskurs einladen. Und nun, lass uns anfangen. 2. Was ist ein LLM?: Ordnung, lassen Sie uns zunächst besprechen, was ein LLM ist, und LLM ist ein Ausdruck oder eine Abkürzung die Sie häufig sehen, wenn Sie sich mit künstlicher Intelligenz befassen , Ein großes Sprachmodell oder LLM ist also ein Modell der künstlichen Intelligenz darauf ausgelegt ist , menschenähnlichen Text auf der Grundlage riesiger Datenmengen zu verstehen und zu generieren Sie werden also feststellen, dass viele generative KI-Anwendungen auf LLMs basieren , sodass sie Aufgaben der natürlichen Verarbeitung oder der natürlichen Sprachverarbeitung ausführen können natürlichen Verarbeitung oder der natürlichen Sprachverarbeitung Natürliche Sprache bedeutet, dass wir mit der KI so sprechen, wie ich mit Ihnen spreche Ich verwende Englisch. Es geht also nicht darum, eine Programmiersprache zu verwenden. So sprechen wir traditionell über Programmiersprachen mit Computern. Nein, LLMs ermöglichen es uns, Englisch oder Muttersprache mit dem System zu sprechen , und dann kann es verstehen, was von ihm verlangt wird , und dann so gut wie möglich eine Antwort Und natürlich ist jede KI-Engine nur so leistungsfähig wie sie trainiert wurde Daher neigen LLMs dazu, anhand vieler Daten zu vielen Dingen trainiert zu werden , sodass sie viele Variationen unserer Anweisungen in natürlicher Sprache verstehen können Variationen unserer Anweisungen in natürlicher Sprache Nein, Modelle wie Open AI, Open Ais GPT Series und Googles BRT sind prominente Beispiele für LLMs, die in verschiedenen Anwendungen eingesetzt werden, und so ziemlich ein LLM verwendet Deep-Learning-Techniken und ist in der Lage, und ist in der Lage Dinge wie Sprachübersetzung, Zusammenfassung sowie Konversation und Satzvervollständigung durchzuführen . 3. Was ist generative KI?: Schauen wir uns nun kurz an, was mit generativer KI gemeint ist . Künstliche Intelligenz ist also darauf ausgelegt, menschliches Verhalten so gut wie möglich nachzuahmen, indem sie maschinelles Lernen nutzt , um mit der Umgebung zu interagieren und Aufgaben auszuführen , ohne dass explizit angegeben wird was daraus hervorgehen soll Generative KI beschreibt also einen Teil der KI, der es dem System ermöglicht, Originalinhalte zu generieren Heutzutage interagieren Menschen in der Regel über Chat-Anwendungen mit generativer KI Ein Beispiel hierfür wäre Microsoft Copilot oder Und generative KI-Anwendungen akzeptieren Eingaben in natürlicher Sprache wie Englisch und geben, leider, entsprechende Antworten in Form von Bildern oder Code in natürlicher Sprache zurück leider, entsprechende Antworten in Form von Bildern oder Code in natürlicher Sprache Und was am wichtigsten ist , ist , dass es diese Daten im Handumdrehen generiert. Es wird also nicht ständig eine vorher festgelegte Aufgabe ausführen, sondern es wird mit einer Menge Daten trainiert , wie gesagt, unterstützt vom LLM, und wenn es eine Aufforderung erhält, kann es sich die riesige Datenmenge ansehen, die Verbindungen herstellen und sie alle zusammenfügen und eine relevante Antwort zurückgeben Und aus diesem Grund werden Sie, wenn Sie den Copiloten oder den Char GPT oder eine andere KI-Engine verwenden den Copiloten oder den Char GPT oder , die auf generativer KI-Technologie und LLMs basiert , feststellen, dass Sie Originalinhalte generieren können, indem Sie einfach einen Vorschlag machen oder eine Frage stellen. 4. Was ist Semantic Kernel?: Okay, jetzt, wo wir ein bisschen die Grundlage gelegt haben , lassen Sie uns zum Hauptthema übergehen , warum wir hier sind, dem semantischen Nun, der semantische Kernel ist ein Open-Source-SDK, das Entwicklern ermöglicht, benutzerdefinierte KI-Agenten zu erstellen Der semantische Kernel ermöglicht es Entwicklern, LLMs mit nativem Code zu kombinieren und KI-Agenten zu erstellen , die Proms nativem Code zu kombinieren und KI-Agenten zu erstellen , die Proms in natürlicher Sprache verstehen und darauf reagieren Es handelt sich um eine effiziente Middleware, die die schnelle Bereitstellung von Unternehmenslösungen ermöglicht , die natürlich auf KI basieren. Und das Beste ist, dass es in C Shar, Python und Java unterstützt in C Shar, Python und Java Hier ist eine kleine grafische Darstellung der Funktionsweise, und ich habe dieses Diagramm der Microsoft-Dokumentation entnommen Es gibt also das, was wir die KI-Orchestrierungsschicht nennen. Dies ist der Kern des semantischen Kernels, der feststeckt, und er ermöglicht die nahtlose Integration von KI-Modellen und -Plugins. Diese Ebene ist dafür verantwortlich, diese Komponenten zu kombinieren , um innovative Benutzerinteraktionen zu Dann haben wir die Konnektoren. Der semantische Kernel bietet also eine Reihe von Konnektoren , die es uns als Entwickler ermöglichen , das LLM direkt in unsere bestehenden Anwendungen zu integrieren , das LLM direkt in unsere bestehenden Anwendungen Diese Konnektoren dienen als Brücke zwischen dem Anwendungscode und den KI-Modellen Dann haben wir die Plugins. Jetzt arbeitet der semantische Kernel mit Plugins und dient im Wesentlichen als Hauptteil der KI-App Die Plugins bestehen aus Eingabeaufforderungen, auf die das KI-Modell reagieren soll, und Funktionen, mit denen spezielle Aufgaben erledigt werden können Wir haben also einige eingebaut, und natürlich können wir auch unsere eigenen bauen, und wir werden uns in diesem Kurs mit beiden befassen 5. Warum den Semantic Kernel verwenden?: Okay, jetzt, wo wir wissen, was dieser semantische Kernel ist, fragst du dich wahrscheinlich, okay, warum sollte ich dieses Ding benutzen Nun, zum einen integriert er sich in LLMs wie Open AI als Ihre offene KI und umarmtes Gesicht Im Grunde ermöglicht es Entwicklern, Plugins zu erstellen, um eine Schnittstelle zu den LLMs herzustellen und Das SDK bietet also integrierte Plugins, mit denen jede Anwendung schnell erweitert werden kann, und ermöglicht es uns Entwicklern, LLMs einfach in unseren Anwendungen zu verwenden ohne die Feinheiten der einzelnen LLM-APIs erlernen zu müssen Plugins, mit denen jede Anwendung schnell erweitert werden kann, und ermöglicht es uns Entwicklern, LLMs einfach in unseren Anwendungen zu verwenden, ohne die Feinheiten der einzelnen LLM-APIs erlernen zu müssen. Und das ist der wichtigste Teil. Es bietet uns also eine Abstraktionsebene , die eine vereinfachte Integration dieser KI-Funktionen in bestehende Anwendungen ermöglicht vereinfachte Integration dieser KI-Funktionen in bestehende Anwendungen Es ermöglicht uns auch, optimierte, zuverlässige KI-Erlebnisse zu entwickeln und gleichzeitig potenzielle Unvorhersehbarkeiten zu vermeiden, zuverlässige KI-Erlebnisse zu entwickeln und gleichzeitig potenzielle Unvorhersehbarkeiten zu vermeiden die mit Eingabeaufforderungen und Antworten von LLMs verbunden sind und Antworten von LLMs Schließlich unterstützt es die Möglichkeit, Eingabeaufforderungen zu optimieren und Aufgaben zu planen, um ein kontrolliertes und vorhersehbares Benutzererlebnis zu schaffen . 6. KI-Agenten im Geschäftskontext verstehen: Nein, ein weiterer wichtiger Begriff , den Sie sehen werden , ist KI-Agent. Nein, ein KI-Agent ist eine Softwareeinheit, die selbstständig Entscheidungen treffen, Maßnahmen ergreifen oder mit einer Umgebung interagieren kann Maßnahmen ergreifen oder mit einer Umgebung interagieren , um bestimmte Ziele zu erreichen Diese Agenten nutzen künstliche Intelligenz, einschließlich maschinellem Lernen und natürlicher Sprachverarbeitung, und sie können ihre Umgebung verstehen und darauf reagieren, sich häufig auf der Grundlage von Feedback anpassen Sie sind für bestimmte Aufgaben oder Ziele konzipiert , wie z. B. das Empfehlen von Produkten, Beantworten von Kundenanfragen oder Steuerung eines Roboters in einem physischen Raum Zu den konkreten Beispielen für KI-Agenten gehören Chatbots und virtuelle Assistenten, also KI-Agenten, die mit Benutzern interagieren Sie können Fragen beantworten, Informationen bereitstellen oder bei allgemeinen Aufgaben helfen Sie verfügen auch über Empfehlungssysteme wie Systeme , die auf dem Verhalten und den Vorlieben der Nutzer basierende Produkte, Filme und Inhalte vorschlagen, die sich als Sorry basierende Produkte, Filme und Inhalte erweisen. Wir haben auch Roboter-Prozessautomatisierung. Diese Agenten können sich wiederholende Aufgaben wie Dateneingabe, Formularverarbeitung oder Terminplanung übernehmen , und Sie verfügen über KI-Roboter, die in einer physischen Umgebung wie einem Lagerroboter, einem autonomen Fahrzeug oder einem Heimassistenten arbeiten einer physischen Umgebung wie einem Lagerroboter, einem autonomen Fahrzeug oder einem Heimassistenten Im Unternehmenskontext können KI-Agenten nun dazu beitragen, Abläufe zu rationalisieren und den Kundenservice zu verbessern, da sie Anwendungen intelligenter machen und besser auf die Bedürfnisse der Benutzer reagieren Sie können auch bei der Entscheidungsfindung helfen, indem Aufgaben automatisieren und Erkenntnisse liefern 7. Visual Studio Code: Jetzt haben wir Visual Studio-Code als Alternative. Dies ist eine großartige plattformübergreifende Alternative, was bedeutet, dass sie für Windows, Linux und Mac im Vergleich zu Visual Studio, das nur für Windows verfügbar ist, funktioniert Linux und Mac im Vergleich zu Visual Studio, . Und natürlich ist es mit dem Internet kompatibel. Und dann ist da noch diese Erweiterung namens C Sharp DevKit, die sehr nützlich ist uns das Visual Studio-Gefühl zu vermitteln und eine Art Bootstrap für.net-bezogene Operationen wie das Erstellen von Bootstrap für.net-bezogene Projekten und das Interagieren mit unseren Für einige Dinge müssen Sie jedoch einige CLI-Befehle schreiben , was Wir werden diese durchgehen , und in diesem Kurs werde ich mehr Visual Studio-Code als Visual Studio verwenden. Um Visual Studio-Code herunterzuladen, können Sie zu code.visualstudio.com gehen und von hier aus herunterladen. Sie können es für Windows oder andere Plattformen herunterladen Ich denke, dies wird standardmäßig davon abhängen, auf welcher Plattform Sie sich befinden, wenn Sie diese Seite aufrufen. Nach einem sehr einfachen und unkomplizierten Installationsvorgang erhalten Sie Ihr Visual Studio-Codefenster. Und es ist wirklich nur ein Texteditor, aber er kann durch Erweiterungen erweitert werden. Sobald Sie hier sind, können Sie zur Registerkarte „Erweiterungen“ gehen und von hier aus nach dem C Sharp Def-Kit suchen Sobald Sie also auf das C Sharp Def-Kit klicken, sehen Sie dort die Schaltfläche zur Installation Hier wird meins aktualisiert, Sie werden also sehen, dass es derzeit Ink installiert Aber für eine Erweiterung, die Sie nicht haben, nehmen wir an, die Scubnt ist eine Du wirst diesen Button sehen, wir sagen „Installieren“. Wenn Sie also zum C Sharp Def-Kit gehen, sehen Sie Installieren und klicken darauf Wenn Sie es nicht sofort sehen, können Sie natürlich jederzeit suchen . Sobald Sie es gefunden haben, können Sie es installieren Es kann einige Zeit dauern. Jetzt müssen Sie auch das.net-SDK manuell installieren Das kommt also mit Visual Studio, aber wenn Sie Visual Studio-Code verwenden und/oder Visual Studio nicht verwenden können , dann müssen Sie sich die Datei dotnet.miicrosoft.com holen und das SDK besorgen, das Sie aber wenn Sie Visual Studio-Code verwenden und/oder Visual Studio nicht verwenden können , dann müssen Sie sich die Datei dotnet.miicrosoft.com holen und das SDK besorgen, das Sie verwenden möchten. Jetzt können Sie beide installieren. Dieser ist der empfohlene. Und wie gesagt, Standardsupport, und es wurde kurz vor der Aufnahme veröffentlicht . Was ich damit sagen will, ist, dass beide funktionieren, Sie können beide installieren und Sie können beide verwenden, um Ihre Projekte zu erstellen, und es ist ziemlich einfach, von.net eight auf.net nine zu aktualisieren , falls Sie sich später dazu entschließen Nun, Sie werden hier sehen, dass dies für Windows genauso ist, aber Sie können alle Alles, was Sie tun müssen, ist zu A zu gehen und ich gehe zu allen.net-Downloads, und von hier aus werden Sie sehen, dass Sie Versionen für verschiedene Betriebssysteme haben , die nicht auf Windows basieren Sobald Sie also all diese Dateien installiert haben, Visual Studio-Code, das.net-SDK Und ich empfehle sogar, ich habe die Reihenfolge durcheinander gebracht. Ich entschuldige mich. Führen Sie zuerst Visual Studio-Code aus, installieren Sie dann das SDK und versuchen Sie dann, das C Sharp DevKit zu installieren Wie es heißt, ist das Dotnet-SDK eine der Anforderungen Um Probleme zu vermeiden, tun Sie dies in dieser Reihenfolge, und dann können Sie fortfahren 8. Microsoft Azure-Konto: Nun, was ist Microsoft Azure? Microsoft Azure ist Microsofts Flaggschiff-Cloud-Computing-Plattform die Dienste wie Datenverarbeitung, Netzwerke, Speicher und Datenbanken bereitstellt . Es bietet nahtlose Hybrid-Cloud-Lösungen und ermöglicht es Unternehmen, Rechenzentren vor Ort in Cloud-Ressourcen zu integrieren . Außerdem bietet es eine einfache Skalierbarkeit, sodass Unternehmen Ressourcen je nach Bedarf und anderen Faktoren schnell nach oben oder unten skalieren können. Am wichtigsten ist jedoch, dass Azure integrierte KI- und maschinelles Lerndienste wie Azure Machine Learning, kognitive Dienste, Bot-Dienste und andere umfasst KI- und maschinelles Lerndienste wie Azure Machine Learning, kognitive Dienste, Bot-Dienste und andere All diese Dienste können bei der Entwicklung intelligenter Anwendungen verwendet werden . Jetzt werde ich Ihnen nur kurz erklären, was zur Einrichtung eines Azure-Kontos erforderlich ist , falls Sie noch keines haben. Zunächst müssen Sie ein Microsoft-Konto erstellen oder sich mit einem vorhandenen anmelden. Ihre Reise beginnt also genau hier auf azure microsoft.com, und ich bin mir sicher, dass sie Sie auf die Website weiterleiten werden, die für Ihren Standort auf der Welt am besten geeignet ist werden, die für Ihren Standort auf der Welt am besten geeignet Von hier aus können Sie sich also anmelden, wenn Sie bereits ein Azure-Konto haben ? Nun, melden Sie sich an. Falls nicht, können Sie auf Neu bei Azure klicken und kostenlos starten. Und dann müssen Sie Ihr Abonnement wählen. Sie haben also die Möglichkeit, eine kostenlose Testversion abzuschließen, mit der Sie die Plattform und ihre Dienste ohne Vorabkosten erkunden die Plattform und ihre Dienste ohne Vorabkosten Sie bekommen einen gewissen Geldbetrag dafür, und sie geben Ihnen hier unten die Fakten Lassen Sie mich nicht versuchen, Sie zu zitieren und in die Irre zu führen, aber Sie kriegen es hin, 200$ für 30 Tage, um Dienste auszuprobieren Aber im Laufe eines Jahres erhalten Sie tatsächlich viele kostenlose Dienste und während dieser 12 Monate Zugang zu kostenlosen Diensten 12 Monate Ordnung? Also kannst du kostenlos anfangen Sie verlangen zwar, dass Sie einige Zahlungsinformationen hinzufügen, aber es gibt keine Vorabverpflichtung Sie können jederzeit kündigen, und Ihre Kreditkarte wird nicht belastet, wenn das kostenlose Abonnement abgelaufen ist. Sie müssen sich also keine Sorgen machen, dass die Kreditkarte belastet wird. Sobald ein kostenloses Abonnement abgeschlossen ist, verlieren Sie einfach den Zugriff. Aber wenn Sie das kostenlose Angebot nicht nutzen möchten und einfach direkt zum kostenpflichtigen Angebot wechseln möchten oder wenn das kostenlose Angebot erschöpft ist und Sie anfangen müssen, zu zahlen, um die Dienste weiterhin nutzen zu können, müssen Sie die Option Pay-as-you-go-Option wählen. Dadurch erhalten Sie mehr Ressourcen, mehr Funktionen und natürlich ist es kostenpflichtig. Es gibt also weitaus weniger Einschränkungen in Bezug darauf, was Sie tun können und was nicht, und Sie zahlen nur für das, was Sie nutzen. Das ist eine großartige Sache. Sie können also viele dieser Dienste einrichten, vor allem, während Sie lernen. Sie können sie einrichten, und für die wenigen Minuten oder Stunden , die Sie den Dienst nutzen können, werden Ihnen Gebühren berechnet. Aber sobald Sie den Dienst zerstören, was ich Ihnen zeigen werde, wie Sie den Dienst außer Betrieb nehmen oder die Zuweisung des Dienstes aufheben können, werden Ihnen keine Gebühren mehr berechnet Das ist also ein großartiger Weg, während Sie lernen und nicht zu viel Geld ausgeben möchten, aber Sie wollen nicht die Einschränkungen, die das kostenlose Konto mit sich bringt. Wenn Sie jedoch gerade erst mit Azura beginnen, schlage ich vor, dass Sie mit dem kostenlosen Konto beginnen, damit Sie sehen können, wozu es in der Lage ist, und das kostenlose Konto ist gut genug für diesen Kurs Nachdem Sie also das passende Abonnement für Ihre Bedürfnisse und Ihr Budget ausgewählt haben das passende Abonnement für , um richten wir eine so genannte Ressourcengruppe ein, die verwendet wird, unsere Ressourcen in einem logischen Container zu organisieren , und dann werden wir verschiedene Azure-Dienste wie maschinelles Lernen, den App Service und die SQL-Datenbank untersuchen und nutzen verschiedene Azure-Dienste wie maschinelles Lernen, Speicher. 9. Übersicht über den semantischen Kernel: Oder jetzt fangen wir an und bauen in diesem Abschnitt des Kurses unseren allerersten Kernel Nun ein kurzer Überblick darüber, was wir tun werden. Wir werden uns den Kernel ansehen, was er ist. Wir haben bereits das Konzept hinter dem semantischen Kernel besprochen. Jetzt werden wir uns etwas genauer wie genau das funktioniert Wir werden uns mit der Verwendung von Azure Open AI befassen und einen einfachen Chat mit dem semantischen Kernel durchführen einen einfachen Chat mit dem semantischen Also bleib hier. In einige Konzepte untersuchen und diesem Abschnitt werden wir einige Konzepte untersuchen und auf einige praktische Beispiele eingehen. 10. Was ist der Kern?: Nun, was ist der Kernel? Der Kernel ist die zentrale Komponente des semantischen Kernels Denken Sie also daran, dass der semantische Kernel in Wirklichkeit das SDK ist. Was genau ist der Kernel? Er kann also als Dependency Injection-Container betrachtet werden , der alle Dienste und Plugins verwaltet , die die Ausführung der KI-Anwendung erforderlich sind. Denken Sie also daran, dass der semantische Kernel insgesamt eigentlich ein Wrapper für die zugrunde liegenden SDKs ist , die jede KI-Engine bereitstellen würde Also öffne KI als deine offene KI, umarmtes Gesicht, all diese haben ihre eigenen SDKs Der semantische Kernel ist insgesamt ein Wrapper, der sie umgibt, und der Kernel selbst verwaltet die verschiedenen Alle Dienste, die Sie dem Kernel zur Verfügung stellen, werden also Bedarf nahtlos von der KI genutzt Jede Aufforderung oder jeder Code, der im semantischen Kernel ausgeführt wird , verwendet den Kernel, um die erforderlichen Dienste und Plug-ins abzurufen die erforderlichen Dienste und Plug-ins Jetzt ist der Kernel extrem leistungsfähig, denn das bedeutet, dass wir als Entwickler einen einzigen Ort haben, an dem wir die wichtigsten Teile unserer KI-Agenten konfigurieren können die wichtigsten Teile unserer KI-Agenten Wir können sie auch überwachen. Und okay, nehmen wir zum Beispiel an, wir haben eine Anwendung. Wir werden uns also ein Diagramm auf hoher Ebene ansehen, das der Microsoft-Dokumentation entnommen ist . Wir haben also unsere Anwendung, und dann müssen wir sie bei der KI-Aufforderung ausführen. Der Kernel wird also den besten KI-Dienst auswählen , um die Eingabeaufforderung auszuführen. Er erstellt anhand der bereitgestellten Eingabeaufforderungsvorlage eine Aufforderung, sendet die Aufforderung an den AI-Service, empfängt und analysiert die Antwort und sendet schließlich die Antwort vom LLM an die Anwendung zurück vom LLM an die Und während des gesamten Prozesses können Sie Ereignisse und Middleware erstellen, können Sie Ereignisse und Middleware erstellen die in den verschiedenen Schritten ausgelöst werden können . Das bedeutet, dass Sie Aktionen wie Protokollierung und Bereitstellung von Status-Updates für Benutzer durchführen und natürlich alles implementieren können, was erforderlich ist, um sicherzustellen, dass Sie KI verantwortungsbewusst Und auch hier kann all dies dank des semantischen Kernels von einem einzigen Ort aus erledigt werden semantischen Kernels von einem einzigen Ort 11. So erstellst du einen Kernel: Lassen Sie uns nun überprüfen, wie wir diesen Kernel bauen. Wenn Sie also das semantische Kernel-SDK verwenden, ist nur eine minimale Einrichtung Wir benötigen also das semantische Kernel-SDK-Paket. Wir benötigen einen Endpunkt für ein LLM, einen oder mehrere, aber in diesem Fall werden wir nur einen verwenden, nämlich Azure Open AI Wir benötigen das SDK, um über einen Endpunkt eine Verbindung zum LLM herzustellen und die Eingabeaufforderungen auszuführen, und das semantische Kernel-SDK unterstützt verschiedene LLMs wie Hugging Face, Open AI und Azure Open AI Open AI und Azure Open Und wenn Sie sich fragen, was der Unterschied zwischen Open AI und Azure Open AI ist und was LLMs bedeuten, ich möchte ein bisschen mehr Informationen, können Sie sich jederzeit meinen Kurs über generative KI für Dotnet-Entwickler ansehen können Sie sich jederzeit meinen Kurs über generative KI für Dotnet-Entwickler ansehen. Ich gehe in diesem Kurs eingehend ein und lerne von Grund auf, wie man KI-Lösungen entwickelt Für dieses Beispiel werden wir also oder für diesen Kurs verwenden, eher Azure Open AI verwenden, und das gilt umso mehr für dieses Beispiel, das demnächst erscheinen wird . Während wir uns in diesem Kurs mit dem Thema befassen, was für die Erstellung unseres Kernels erforderlich ist , und in diesem Beispiel, das demnächst erscheinen wird, werden wir nur untersuchen was die Azure AI-Dienste sind. Also haben wir uns angesehen, was Microsoft Azure ist und wie man das Konto einrichtet, und vorausgesetzt, Sie haben das alles schon einmal gemacht, werde ich Ihnen einfach weitermachen und Ihnen mitteilen, worum es bei den KI-Diensten geht. Sie haben also Azure AI Cognitive Services und Sie haben Azure Open AI Service. Und ich werde mich auf den Open AI-Dienst konzentrieren , da wir ihn in diesem Kurs verwenden. Jetzt bietet der Open AI-Service Zugriff auf leistungsstarke Sprachmodelle wie GPT, und ich bin mir sicher, dass wir inzwischen alle von GPT gehört oder dieses verwendet haben Und diese können verwendet werden, um intelligente Anwendungen wie Chatbots, Anwendungen zur Inhaltsgenerierung und Sprachübersetzung zu entwickeln intelligente Anwendungen wie Chatbots, Anwendungen Inhaltsgenerierung und Sprachübersetzung Verarbeitung natürlicher Sprache steht also an der Spitze der Arbeit von LLM Und Azure bietet robuste NLP-Funktionen, denen wir als Entwickler Text Analytics and Large Understanding , kurz Louis, Analysen durchführen und Analysen wie gründliche Stimmungsanalysen und andere Arten von mithilfe von Diensten wie Text Analytics and Large Understanding , kurz Louis, Analysen durchführen und Analysen wie gründliche Stimmungsanalysen und andere Arten von Analysen gründliche Stimmungsanalysen und Ein bisschen mehr über den Azure Open AI-Dienst. Nun, lassen Sie uns einen Schritt zurücktreten. Open AI ist ein KI-Forschungsunternehmen , das mehrere bahnbrechende, KI-gestützte Anwendungen wie HatGPT entwickelt hat KI-gestützte Anwendungen wie , um nur eine zu nennen, eine sehr Azure Open AI ist ein Dienst, der uns RESTful-APIs und Zugriff auf Open AIS, leistungsstarke Sprachmodelle, bietet RESTful-APIs und Zugriff auf Open AIS, leistungsstarke Sprachmodelle, . Möglicherweise wissen Sie nicht, dass dies verschiedene Modelle sind im Chat-GPT verfügbar sind Aber wenn Sie CHAT GPT verwenden, Sie sicher mit mindestens 3.54 und 40 vertraut Aber nur um Ihnen zu zeigen, dass es andere Modelle gibt, auf die Sie aus entwicklungspolitischer Sicht zugreifen können , und da Sie offen sind, stellt uns KI diese zur Verfügung und gibt uns die Unterstützung und Garantie von Microsoft, da Sie natürlich eine Infrastruktur hosten Mit diesen Modellen können wir nun Dinge wie die Generierung von Inhalten, die Zusammenfassung, das Verständnis von Bildern, die semantische Suche und die Übersetzung von natürlicher Sprache in Code abschließen Dinge wie die Generierung von Inhalten, die Zusammenfassung, das Verständnis von Bildern, die semantische Suche und die Übersetzung von natürlicher Sprache Es gibt also mehrere Dinge, die Sie mit diesen GBT-Modellen tun können Wenn Sie sich eingehender mit ihnen befassen möchten, können Sie sich noch einmal meinen Kurs Generative KI für.net-Entwickler ansehen Generative KI für.net-Entwickler Ordnung, jetzt, wo wir verstanden haben was die Anforderungen für die Erstellung des Kernels und den Beginn der Erstellung einer Anwendung sind , werden wir gleich loslegen und mit der Bereitstellung unserer Azure Open AI-Ressource beginnen Bereitstellung unserer Azure Open AI-Ressource 12. Azure OpenAI-Ressource erstellen: Ordnung, ich gehe also davon aus , dass Sie Ihr Microsoft-Konto bereits als Konto eingerichtet haben und sich anmelden können Sobald Sie sich angemeldet haben, werden wir direkt mit der Erstellung unserer Open AI-Ressource beginnen Also werde ich hier oben nach Open AI suchen und es tatsächlich hier haben, aber Sie können immer einfach die Suche eingeben und schon klicken Sie auf Azure Open AI. Und von hier aus werden wir weitermachen und diese Azure Open AI-Ressource erstellen. Beachten Sie, dass für diese Ressource Kosten anfallen. Wenn Sie also das kostenlose Kontingent nutzen, verfügen Sie natürlich über die erforderlichen Credits, und Sie erhalten möglicherweise nur sehr eingeschränkte Funktionen, aber andernfalls fallen Kosten Wenn Sie also mit einer Demo fertig sind, denken Sie daran, Ihre Ressourcen zu reduzieren, um sicherzustellen, dass Ihnen nichts Unnötiges entsteht Für diesen Kurs werde ich also eine neue Ressourcengruppe erstellen und diese Ressourcengruppe Semantic Kernel RG nennen Ressourcengruppe Semantic Kernel Also einfach etwas, mit dem ich mich identifizieren kann. Wenn ich also die Ressourcen entferne, muss ich nur diese Ressourcengruppe entfernen, die ich sehr spezifisch benannt habe, basierend auf den Beispielen, die wir verwenden werden. Also mache ich einfach weiter und mache das und gebe dem dann einen Namen. Und dieser Name möchte im Allgemeinen, dass er einzigartig ist. Sie könnten also etwas anderes verwenden, um es einzigartig zu machen. Und wenn Sie diesen Kurs machen, wird meine Ressource nicht mehr existieren, aber Sie können jederzeit Ihren Namen hinzufügen, um sie etwas einzigartiger zu machen, nur für den Fall, dass sie sagen, dass sie nicht verfügbar ist Und was die Preisstufe angeht, werde ich mich für den Standard entscheiden Wenn Sie nun die vollständigen Preisdetails sehen möchten, können Sie dies über diesen Link tun. Und dann werde ich weitermachen. Ich werde bestätigen, dass ich möchte alle Netzwerke auf diese Ressource zugreifen können, und ich muss sie nicht taggen und dann auf Weiter klicken. Und von hier aus wird es mich fragen, oder es wird alles validieren, was eingegeben wurde , und dann kann ich etwas erstellen. Sobald dieser Abschlussschritt abgeschlossen ist, können wir zur Ressource übergehen. Diese Ressource bietet uns jetzt Zugriff auf Azure Open AI Studio. Gehen wir also ins Studio. Und während es geladen wird, müssen Sie sich möglicherweise erneut authentifizieren Sie können sich mit Ihren Azure-Anmeldeinformationen authentifizieren, und im Handumdrehen sollten Sie zugelassen werden Sobald wir also hier sind, wollen wir ein neues Deployment erstellen Wir richten also das LLM ein, das unseren Kernel mit Strom versorgen wird, oder? Der Kernel ist eigentlich nur ein codebasierter Konnektor zu einem LLM, das wir haben Also verwenden wir wieder Azure Open AI. Und hier gehe ich zu Bereitstellungen und wir werden eine neue Bereitstellung erstellen Also werden wir auf Modell bereitstellen klicken und das Basismodell bereitstellen also nur für den Kontext ein Basismodell bereitstellen, Sie können also nur für den Kontext ein Basismodell bereitstellen, da Azure Open A über mehrere Basismodelle verfügt , die mit bestimmten Informationen und für bestimmte Dinge vorab trainiert wurden. Wir können dieses Basismodell oder ein anderes Modell aber auch verfeinern , um es noch individueller an unsere Bedürfnisse anzupassen. Die Bedürfnisse einer Fluggesellschaft würden sich also völlig von den Bedürfnissen einer Schule unterscheiden. Stimmt das? Das Basismodell kann also ein allgemeines, du weißt schon, Mittelding für beide weil das Basismodell auf viel von jeder Kleinigkeit oder ein bisschen auf jeder Kleinigkeit trainiert worden wäre auf viel von jeder Kleinigkeit oder ein bisschen auf jeder Kleinigkeit trainiert . Aber manchmal möchten Sie Ihr Modell wirklich an Ihre spezifischen Geschäftsanforderungen anpassen. In diesem Beispiel gehen wir jedoch von einem Basismodell aus. Lassen Sie uns also ein Basismodell einsetzen und suchen nach der GPD Sie sehen hier also, dass Ihnen mehrere GPT-Modelle und mehrere Versionen zur Verfügung stehen Ihnen mehrere GPT-Modelle und mehrere Versionen zur Verfügung Und jede Version hat ihre eigenen Fähigkeiten und wäre an bestimmten Informationen und bis zu einem bestimmten Punkt geschult worden und bis zu einem bestimmten Punkt also bei der Auswahl der Modelle Seien Sie also bei der Auswahl der Modelle sehr, sehr überlegt. Ich werde mich jedoch für den GPT 35 Turbo, 16 K entscheiden . Und wenn Sie 16 K nicht sehen, können Sie den regulären GPT Von hier aus werde ich das bestätigen. Und dann kann ich dem Einsatz einen bestimmten Namen geben. Für den Fall , dass ich vielleicht mehrere Bereitstellungen desselben Modelltyps habe, möchte ich ihnen eindeutige Namen geben In diesem Fall belasse ich es einfach beim Standardnamen , der sowieso der Name des Modells ist Und ich muss nichts ändern. Wenn Sie etwas ändern möchten, können Sie unter Anpassen die Anzahl der Tokens ändern, die pro Minute gesendet werden. Sie können die Version im Moment ändern , Standard ist die einzige Option, und wir haben Standard - und Standardversion zwei für Inhaltsfilter, und ich werde das dynamische Kontingent nicht aktivieren. Und ja, ich kann es jetzt bereitstellen. 13. Erstelle eine Chat-Fertigstellungs-App: In Ordnung, jetzt werden wir etwas Code schreiben. Und in dieser Lektion werde ich Visual Studio-Code und die.net-CLI verwenden , einfach weil es ein bisschen einfacher ist und es für alle, unabhängig von Ihrem Betriebssystem, einfacher ist , dem zu folgen Wenn Sie sich jedoch mit Visual Studio besser auskennen, Sie gerne weitermachen, da wir lediglich eine neue Konsolenanwendung erstellen Also werde ich mit der.net-CLI den Befehl.net NU Console O Build your Kernel ausführen Console O Build your Das bedeutet also, eine neue Konsolen-App zu erstellen und diese in einem Ordner namens Build your kernel in dem von Ihnen ausgewählten Ziel auszugeben einem Ordner namens Build your kernel in dem von Ihnen ausgewählten Ziel Also lass uns damit weitermachen. Nein, ich kann sehen, wie Sie Ihren Kernel erstellen und dann den Codepunkt Visual Studio-Code starten an dieser Stelle ausführen. Sobald der Visual Studio-Code gestartet ist, möchte ich als Nächstes das Terminal im Visual Studio-Code aufrufen. Und ich könnte das auch innerhalb des ursprünglichen Terminalfensters machen , aber warum nicht das Fenster im Visual Studio-Code verwenden Wenn ich dieses Terminal aufrufe, kann ich jetzt den Befehl.net add package, miicrosoft dot Semantic Kernel eingeben miicrosoft dot Also das wird jetzt weitermachen und das Paket holen, das es uns ermöglicht, den semantischen Kernel in unserer Anwendung zu unterstützen, und dann geht es los, und dann geht es los Und sobald das erledigt ist, bestätige ich einfach die Version, mit der wir arbeiten Also die Version, wenn Sie zur CSP-Datei gehen, sind wir jetzt bei Version 1.29 Punkt oh Jetzt können Sie diese Bearbeitungsansicht verwenden oder Sie können einen Solution Explorer verwenden, was etwas natürlicher ist Wenn Sie Visual Studio verwenden, fühlt es sich aufgrund der Anordnung etwas natürlicher an. Und das ist verfügbar, wenn Sie das C Sharp DevKit installiert haben das C Sharp DevKit installiert In Ordnung, also lasst uns zu unserem Beispiel kommen. Also werde ich mit einer Nutzungsanweisung beginnen, um diesen semantischen Kernel zu verwenden Ich werde auch weitermachen und einen Builder initialisieren, und dieser Builder wird Kernel Dot Create Builder sein Kernel Dot Create Denken Sie also daran, dass wir Beginn der Diskussion über den Kernel gesagt haben, dass er wie ein Dependency Injection-Container ist Wenn Sie diesen Net Core also schon einmal benutzt haben, sollte Ihnen das nicht allzu ungewohnt vorkommen Jedes Mal , wenn Sie ein Programm öffnen, das in einer Kernanwendung eine A-Geschwindigkeit oder zumindest, sagen wir, eine A-Geschwindigkeit auf NCR, Razor-Seiten oder MVC höher sieht Kernanwendung eine A-Geschwindigkeit oder zumindest , sagen wir, eine A-Geschwindigkeit auf NCR, , die vorkonfiguriert ist, sehen Sie immer ein Builder-Objekt , sehen Sie immer ein Builder-Objekt mit dem Sie Abhängigkeiten hinzufügen können Dieser Kernel-Builder ermöglicht es uns also, die LLM-Abhängigkeiten hinzuzufügen , die wir Also hier sage ich, offene KI hinzufügen, und dann werden Sie sehen, dass Sie Azure Open AI und die verschiedenen Arten von Azure Open AI hinzufügen, Dienste, die ich von Anfang an hinzufügen kann, oder? und dann werden Sie sehen, dass Sie Azure Open AI und die verschiedenen Arten von Azure Open AI hinzufügen , Dienste, die ich von Anfang an hinzufügen kann, oder Ich kann hier auch Plugins und Dienste hinzufügen. In diesem Beispiel machen wir also eine App zum Abschließen von KI-Chats, und dann wird es einige geben , es wird einige Überladungen geben Wenn wir uns also die Überladungen ansehen, ein Bereitstellungsname und ein Endpunkt sowie verschiedene Dinge wie Token, Anmeldeinformationen, Service-ID usw. erwartet Endpunkt sowie verschiedene Dinge wie Token, . Sie haben also unterschiedliche Überladungen für diese Methode. Aber bevor ich sie ausfülle, werde ich das einfach beenden und Var-Kernel sagen Ist gleich, und dann sagen wir Builder, mach weiter und baue. Das heißt also, okay, nimm all die verschiedenen LLM-Endpunkte und alles, was wir hinzugefügt haben, und erstelle dann einfach ein letztes Entschuldigung, Objekt. Mein Fehler. Nur um das zu beschleunigen, damit Sie nicht rumsitzen und mir beim Tippen zuschauen müssen. Ich werde weitermachen und sagen , dass Sie die richtige Zeile in Ihre Anfrage einbauen. Das ist also eine Aufforderung an den Benutzer, und dann erhalte ich seine Anfrage, die ich in einer Variablen namens Prompt speichern werde. Sobald ich diese Eingabe vom Benutzer habe, werde ich weitermachen und sie an den Kernel weitergeben. Also werde ich sagen, dass das Ergebnis gleich ist, und dann warten wir auf den Kernel. Und nur damit Sie es wissen, der Kernel hat mehrere Methoden, asynchron und synchron. Sie können also eine Funktion erstellen, es kann ein Plugin erstellen. Und wir werden uns auch mit all diesen Dingen befassen. Wir können Prompt aufrufen, Acing aufrufen usw., Streaming aufrufen Ohne auf die Einzelheiten jeder einzelnen Methode einzugehen, werden wir hier eine Aufforderung aufrufen. Wir verwenden die asynchrone Methode. Daher das Gewicht, und wir werden diese Prompt-Variable, diesen Wert, übergeben diese Prompt-Variable, diesen Wert, Und dann machen wir weiter und trösten die richtige Linie, das Ergebnis. Sobald wir das alles erledigt haben, machen wir jetzt einen Rückzieher und füllen die fehlenden Informationen hier Schauen wir uns also die verschiedenen Parameter an , die benötigt werden Zunächst benötigen wir also den Namen der Bereitstellung. Und ich werde hier quasi den Parameternamen angeben , damit wir wissen, welchen Wert wir eingeben. Also brauchen wir den Namen der Bereitstellung. Was kommt als Nächstes? Wir können den Open AI-Client verwenden, aber ich möchte den API-Schlüssel verwenden. Ich schaue mir also die nächste Überladung an. Und wir können reinlegen. Damit wir Anmeldeinformationen eingeben können. Das ist nicht der, den ich will. Ich kann diesen API-Schlüssel auch eingeben, oder? Also kann ich den String-Endpunkt und dann den API-Schlüssel eingeben. Also lassen Sie uns dort den Endpunkt einfügen. Und im Moment mache ich sie einfach leer, weil wir natürlich die Werte abrufen werden, und dann wäre der API-Schlüssel der nächste Parameter Ordnung. Das sind also die drei Mindestinformationen, die wir benötigen damit der Kernel Verbindung zu unserem Chat-Abschluss herstellen kann. Also lass uns zurück ins Studio springen. Im Studio können wir also zuerst den Namen der Bereitstellung abrufen. Also welchen Namen Sie ihm auch gegeben haben , als Sie ihn erstellt haben, das ist der Name, über den wir sprechen Zurück im Code lautet der Name der Bereitstellung also GPT 35. Ich habe es nicht geändert, also ist es derselbe Name, oder? Dann der Endpunkt und der API-Schlüssel. Nun, es wäre leicht zu denken: Oh, hier ist eine Ziel-URI, das ist Endpunkt, aber das ist nicht ganz der Endpunkt. Wir müssen zurück zu unserem Portal und in unserem Portal in der Ressource als Ihrer offenen KI-Ressource springen unserem Portal in der Ressource als Ihrer offenen KI-Ressource Gehen wir runter zu den Schlüsseln und dem Endpunkt und wir werden hier den Endpunkt sehen. Dieser Endpunkt ist hier eigentlich der erste Teil der Ziel-URI. Es ist tatsächlich bis zu diesem Punkt, und der Rest ist der Ziel-URI für diese Ressource , den Sie in bestimmten Situationen verwenden können. In dieser Situation brauchen wir das alles nicht. Es ist also einfacher oder besser, den offenen KI-Endpunkt als die spezifischen Bereitstellungen ins Visier offenen KI-Endpunkt als die spezifischen Bereitstellungen Punkt, richtig? Also kommen wir zurück, und das ist unser Endpunkt, und dann können wir den API-Schlüssel verwenden. Und beim Testen habe ich festgestellt, dass dieser Schlüssel tatsächlich derselbe ist wie der Schlüssel hier. Zumindest war das meine Erfahrung. Aber so oder so, es ist besser, den Schlüssel zu verwenden , der dem gewünschten Endpunkt zugeordnet ist. Lassen Sie uns also weitermachen und diesen kopieren und einfügen. Und beachten Sie, dass Sie die Werte, die Sie hier sehen , im Allgemeinen nicht direkt im Code speichern möchten. Im Allgemeinen möchten Sie sie in eine Umgebungsvariable einfügen oder Geheimnisse verwenden. Dies ist ein einfaches Beispiel, eine einfache Demo, also werde ich jetzt nicht auf all diese Komplikationen eingehen , aber Sie sollten wissen, dass ich diese Werte , die Sie hier bis zum Abschluss des Kurses sehen, aus meinen Ressourcen gestrichen hätte Stellen Sie also sicher, dass Sie Ihre eigenen verwenden und versuchen Sie nicht die exakten Werte zu kopieren , die Sie Jetzt haben wir also unsere einfache Konsolen-App, die einige Eingaben entgegennimmt und einige Ergebnisse zurückgibt, dank unserer GPT Three, Five, Turbo-Implementierung, die wir in unserer offenen KI-Ressource auf Microsoft Azure haben unserer offenen KI-Ressource auf Microsoft Azure Lassen Sie uns also weitermachen und das testen. Also gut, zu Ihrer Anfrage, sagen wir, listen wir die besten Orte auf Jamaika auf, die Sie besuchen sollten. Ordnung. Also ich glaube, du weißt inzwischen, dass ich Jamaikaner bin Also lass uns sehen, wo in meinem Land der beste Ort für dich wäre, um ihn zu besuchen Und sehen Sie, dass sie einige wirklich nette Orte auflisten Montego Bay Grill Oraios Kingston ist die Hauptstadt. Sie können immer wandern oder Berge blau machen. Geh nach Port Antonio, um dich zu entspannen. Trelon ist reich an Land. Kultur, Entschuldigungen und Flora und Fauna. Treasure Beach ist großartig. All dies sind großartige Orte. Also ja, ich stimme dieser Liste und danke Ihnen für unsere App zur Chat-Vervollständigung, die wir gerade mit unserem semantischen Kernel erstellt haben 14. Abschnittsüberprüfung: Ordnung, dieser Abschnitt war also kurz , aber praktisch. Also, was haben wir getan? Wir haben untersucht, was der Kernel ist, der der Dreh- im gesamten Konzept des semantischen Kernels gesamten Konzept des semantischen Wir haben uns angesehen, wie wir KI-Ressourcen bereitstellen und öffnen können, und dann haben wir uns das Azure AI Studio angesehen wo wir ein GPT-Modell auf der Grundlage der Version 3.5 erstellt haben ein GPT-Modell auf der Grundlage der Und dann haben wir mit unserem semantischen Kernel , dem SDK, eine Verbindung dazu hergestellt unserem semantischen Kernel , dem SDK, Kodieren und erstellen Sie unsere allererste Anwendung zur Chat-Vervollständigung mithilfe des semantischen Kernels So einfach ist es also, sobald Sie das LLM haben und all diese Informationen für den Endpunkt usw. haben. Sie müssen sich keine Gedanken über irgendwelche SDKs und irgendwelche Komplikationen machen, die mit unserer Einzigartigkeit im Vergleich zum und irgendwelche Komplikationen LLM, mit dem verbunden wird , entstehen könnten, weil der semantische Kernel all das abstrahiert und uns eine einfache Möglichkeit bietet, eine Verbindung herzustellen und zu weil der semantische Kernel all das abstrahiert und uns eine einfache Möglichkeit bietet, eine Verbindung herzustellen und uns eine einfache Möglichkeit bietet Nachdem wir nun ein praktisches Beispiel gesehen haben, gehen wir zum nächsten Abschnitt über, in dem wir uns mit Plugins befassen werden.