Transkripte
1. Einführung: Hallo und willkommen zu meinem Kurs. Semantic Kernel SDK verstehen. Ich bin dein Ausbilder
Tervor Williams. Ich bin Softwareingenieur,
Dozent, Autor und ein Enthusiast, und es ist mir eine absolute Freude,
Ihnen diesen Kurs anbieten zu können Bevor wir mit dem Kurs beginnen, wollen wir uns einige der
Hauptziele ansehen, zu deren Erreichung ich Ihnen mit diesem Kurs
hoffentlich helfen
kann Nun
wollen wir uns unter anderem ein umfassendes Verständnis
des semantischen Kernel-SDK Das bedeutet, dass
wir die Kernkonzepte,
die Architektur
und die Funktionen dieses SDK im
Vergleich zur .net-Entwicklung untersuchen Kernkonzepte,
die Architektur werden Wir werden uns auch damit
befassen, wie wir KI-gestützte
Plugins
entwickeln können , die
modelltauglich sind und
die Anwendungsfunktionalität
mit KI-Funktionen erweitern die Anwendungsfunktionalität
mit KI-Funktionen Wir wollen auch untersuchen,
wie wir
KI-Modelle in Anwendungen integrieren können , indem LLMs
verwenden
, wie sie im
Azure Open AI-Dienst verfügbar sind , und wie wir sie
in unsere Anwendungen integrieren
können Wir möchten auch
sicherstellen, dass wir nach Abschluss
dieses Kurses verstehen,
wie wir
dieses SDK verwenden können , um
reale Anwendungen
wie virtuelle Assistenten oder
Karriere-Coaches oder
Systeme zu implementieren reale Anwendungen
wie virtuelle Assistenten oder , die
bei der Entscheidungsfindung
auf Basis von KI helfen können bei der Entscheidungsfindung
auf Basis von KI Außerdem möchten wir
sicherstellen, dass Sie alle
Fähigkeiten, die Sie durch
praktische Aktivitäten
und Projekte
erlernen,
anwenden durch
praktische Aktivitäten
und Projekte
erlernen können, um das Gelernte zu
stärken. Einige der wichtigsten Funktionen
, die dieser Kurs in One
zu bieten hat, ein Überblick über das
semantische
Kernel-SDK sind
ein Überblick über das
semantische
Kernel-SDK mit ausführlichen
Erläuterungen seinem Zweck und seiner Rolle
und dazu, wie es verwendet werden kann, um KI-Integrationen in
Ihre modernen Anwendungen
vorzunehmen Außerdem finden praktische
Übungen statt, in denen wir alles,
was wir über das SDK gelernt haben, in die Praxis umsetzen Und natürlich werden wir
auf den
LLMs aufbauen, die uns
über Azure Open AI zur Verfügung gestellt In diesem Kurs
konzentrieren wir uns auf das GPT LLM. Wir werden
auch reale
Anwendungsfälle haben , weil
wir tatsächlich ein Coaching-System aufbauen werden , das die Anfrage eines Benutzers verarbeiten, historische Daten
abrufen und
dann eine
personalisierte Antwort geben kann historische Daten
abrufen und dann eine
personalisierte Antwort geben Wir werden
das auch in
eine Anwendung für das Web portieren . Und wir werden uns im Laufe der Zeit mit
erweiterten Funktionen wie Speicherplanung,
Argumentationsfähigkeit, Konfiguration von KI mit
langfristiger Unterstützung oder Aufbewahrung und verschiedenen Dingen befassen, von
denen Sie
im Zusammenhang mit KI hören.
Wir werden uns ansehen, wie wir
das semantische Kernel-SDK verwenden können , um all
dies zu erreichen Bevor Sie an diesem Kurs
teilnehmen, rate
ich Ihnen, dass es gut
ist, wenn Sie
bereits mit der Programmierung von Tutent
und C Sharp vertraut sind bereits mit der Programmierung von Tutent
und C Sharp vertraut und Sie haben diese
grundlegenden Konzepte wie objektorientierte
Programmierung, Paketen
und Bibliotheken und die Verwendung von
ABIs Es ist gut, wenn Sie
sich mit all dem
vertraut gemacht haben , bevor Sie diesen Kurs
belegen Auch wenn Sie sich
mit Microsoft Azure
auskennen , ist
das gut. Sie
benötigen jedoch kein tiefgehendes Verständnis, denn was auch immer
Sie verstehen müssen, werde
ich erklären und
nur das verwenden , was
für diesen Kurs erforderlich ist. Es ist auch gut, wenn Sie
ein grundlegendes Verständnis
von KI und KI-Konzepten
und Schlüsselwörtern haben . Da ich
einige Schlüsselwörter verwenden werde, werde
ich versuchen, sie im
Laufe der Zeit zu erklären. Aber wenn Sie dieses Wissen bereits
haben, wird es für Sie einfacher sein diese Informationen
anzueignen Als Empfehlung schlage
ich vor, dass Sie meinen Kurs
Generative KI für.net-Entwickler
mit Azure-KI-Diensten belegen,
in dem ich von Anfang bis
Ende
die verschiedenen Konzepte durchgehe
, aus denen KI und
generative KI bestehen, sowie die
verschiedenen Dienste
, die Microsoft
Azure
uns Generative KI für.net-Entwickler
mit Azure-KI-Diensten belegen, in dem ich von Anfang bis
Ende
die verschiedenen Konzepte durchgehe
, aus denen KI und
generative KI bestehen, sowie die
verschiedenen Dienste
, die anbietet wir diesen Kurs
abgeschlossen haben, würde sich
alles, was wir
hier tun, von selbst ergeben. Nun, wenn Sie
bereits die Grundlagen der vorherigen drei Punkte haben, müssen
Sie den Kurs wahrscheinlich nicht belegen. Aber ich gebe eine
Empfehlung ab, damit
Sie im Laufe der Zeit
das Gesamtbild sehen können. Nachdem all das gesagt und getan wurde, möchte
ich
Sie zum Diskurs einladen. Und nun, lass uns anfangen.
2. Was ist ein LLM?: Ordnung, lassen Sie
uns zunächst
besprechen, was ein LLM ist,
und LLM ist ein Ausdruck
oder eine Abkürzung die Sie häufig sehen, wenn
Sie sich mit
künstlicher Intelligenz befassen , Ein großes
Sprachmodell oder LLM ist also ein Modell der künstlichen Intelligenz darauf ausgelegt ist
, menschenähnlichen Text
auf der Grundlage riesiger Datenmengen
zu verstehen und zu
generieren Sie werden also feststellen, dass viele generative KI-Anwendungen
auf
LLMs basieren , sodass sie Aufgaben der
natürlichen Verarbeitung oder der natürlichen
Sprachverarbeitung ausführen können natürlichen Verarbeitung oder der natürlichen
Sprachverarbeitung Natürliche Sprache bedeutet, dass
wir mit der KI
so sprechen, wie ich mit Ihnen spreche Ich verwende Englisch. Es geht also nicht darum,
eine Programmiersprache zu verwenden. So sprechen wir traditionell über
Programmiersprachen mit
Computern. Nein, LLMs ermöglichen es uns,
Englisch oder
Muttersprache mit dem System zu sprechen , und dann kann es verstehen,
was von
ihm verlangt wird , und dann so gut wie möglich eine
Antwort Und natürlich ist jede KI-Engine nur so leistungsfähig wie
sie trainiert wurde Daher neigen LLMs dazu,
anhand vieler Daten zu vielen Dingen trainiert zu werden , sodass sie viele
Variationen unserer Anweisungen in natürlicher
Sprache verstehen können Variationen unserer Anweisungen in natürlicher
Sprache Nein, Modelle wie Open AI,
Open Ais GPT Series
und Googles BRT sind prominente Beispiele für LLMs, die in verschiedenen
Anwendungen eingesetzt werden, und so ziemlich ein LLM verwendet
Deep-Learning-Techniken
und ist in der Lage, und ist in der Lage Dinge wie
Sprachübersetzung,
Zusammenfassung sowie Konversation und Satzvervollständigung
durchzuführen .
3. Was ist generative KI?: Schauen wir uns nun kurz
an, was mit generativer KI
gemeint ist . Künstliche Intelligenz
ist also darauf ausgelegt, menschliches Verhalten so gut wie möglich
nachzuahmen, indem sie
maschinelles Lernen nutzt , um mit
der Umgebung zu interagieren und
Aufgaben auszuführen , ohne dass
explizit angegeben wird was daraus hervorgehen soll Generative KI beschreibt also
einen Teil der KI, der
es dem System ermöglicht, Originalinhalte zu
generieren Heutzutage
interagieren Menschen in der Regel über
Chat-Anwendungen mit generativer KI Ein Beispiel
hierfür wäre Microsoft Copilot oder Und generative
KI-Anwendungen akzeptieren Eingaben in
natürlicher Sprache
wie Englisch und geben,
leider, entsprechende Antworten in Form von Bildern oder Code in
natürlicher Sprache zurück leider, entsprechende Antworten in Form von Bildern oder Code in natürlicher Sprache Und was am wichtigsten ist
, ist , dass es
diese Daten im Handumdrehen generiert. Es wird also nicht ständig
eine vorher
festgelegte Aufgabe ausführen, sondern es wird mit einer Menge Daten trainiert
, wie gesagt, unterstützt vom LLM, und wenn es eine Aufforderung erhält, kann
es sich die
riesige Datenmenge ansehen, die Verbindungen
herstellen
und sie alle zusammenfügen und
eine relevante Antwort zurückgeben Und aus diesem Grund werden Sie,
wenn Sie
den Copiloten oder den Char GPT oder eine
andere KI-Engine verwenden den Copiloten oder den Char GPT oder , die
auf generativer
KI-Technologie und LLMs basiert , feststellen, dass Sie Originalinhalte
generieren können,
indem Sie einfach einen Vorschlag machen
oder eine Frage stellen.
4. Was ist Semantic Kernel?: Okay, jetzt, wo wir
ein bisschen die Grundlage gelegt haben , lassen Sie uns zum Hauptthema
übergehen , warum wir
hier sind, dem semantischen Nun, der semantische Kernel
ist ein Open-Source-SDK, das Entwicklern
ermöglicht, benutzerdefinierte KI-Agenten zu
erstellen Der semantische Kernel ermöglicht es Entwicklern, LLMs mit
nativem Code zu kombinieren und KI-Agenten zu erstellen
, die Proms nativem Code zu kombinieren und KI-Agenten zu erstellen
, die Proms in natürlicher Sprache verstehen und
darauf reagieren Es handelt sich um eine effiziente
Middleware, die die
schnelle Bereitstellung von
Unternehmenslösungen ermöglicht ,
die natürlich auf KI basieren. Und das Beste ist, dass
es
in C Shar, Python und Java unterstützt in C Shar, Python und Java Hier ist eine kleine grafische Darstellung der Funktionsweise, und ich habe dieses Diagramm
der Microsoft-Dokumentation entnommen Es gibt also das, was wir
die KI-Orchestrierungsschicht nennen. Dies ist der Kern des
semantischen Kernels, der feststeckt, und er ermöglicht die
nahtlose Integration von KI-Modellen und -Plugins. Diese Ebene ist
dafür verantwortlich, diese Komponenten zu kombinieren , um
innovative Benutzerinteraktionen zu Dann haben wir die Konnektoren. Der semantische Kernel
bietet also eine Reihe von Konnektoren
, die es uns als
Entwickler ermöglichen ,
das LLM
direkt in unsere
bestehenden Anwendungen zu integrieren ,
das LLM
direkt in unsere
bestehenden Anwendungen Diese Konnektoren
dienen als Brücke zwischen dem
Anwendungscode und den KI-Modellen Dann haben wir die Plugins. Jetzt
arbeitet der semantische Kernel mit Plugins und dient
im Wesentlichen als
Hauptteil der KI-App Die Plugins bestehen aus Eingabeaufforderungen,
auf die das KI-Modell
reagieren soll, und Funktionen, mit denen spezielle Aufgaben erledigt
werden können Wir haben also einige
eingebaut, und natürlich können wir auch unsere eigenen bauen, und wir werden uns in diesem Kurs mit beiden
befassen
5. Warum den Semantic Kernel verwenden?: Okay, jetzt, wo wir wissen, was
dieser semantische Kernel ist, fragst
du dich wahrscheinlich, okay, warum sollte ich dieses Ding benutzen Nun, zum einen
integriert er sich in LLMs wie Open AI als Ihre offene KI und
umarmtes Gesicht Im Grunde ermöglicht es
Entwicklern,
Plugins zu erstellen, um eine Schnittstelle zu den LLMs herzustellen und Das SDK bietet also integrierte Plugins, mit denen jede Anwendung schnell erweitert
werden kann, und ermöglicht es uns Entwicklern, LLMs
einfach
in unseren Anwendungen zu verwenden ohne die Feinheiten
der einzelnen
LLM-APIs erlernen zu müssen Plugins, mit denen jede Anwendung schnell erweitert
werden kann,
und ermöglicht es uns Entwicklern, LLMs
einfach
in unseren Anwendungen zu verwenden,
ohne die Feinheiten
der einzelnen
LLM-APIs erlernen zu müssen. Und das ist der wichtigste Teil. Es bietet uns also eine
Abstraktionsebene , die eine vereinfachte Integration
dieser KI-Funktionen in
bestehende Anwendungen ermöglicht vereinfachte Integration
dieser KI-Funktionen in
bestehende Anwendungen Es ermöglicht uns auch, optimierte,
zuverlässige KI-Erlebnisse zu
entwickeln und
gleichzeitig
potenzielle Unvorhersehbarkeiten zu vermeiden, zuverlässige KI-Erlebnisse zu
entwickeln und
gleichzeitig
potenzielle Unvorhersehbarkeiten zu vermeiden die mit Eingabeaufforderungen
und Antworten von LLMs
verbunden sind und Antworten von LLMs Schließlich unterstützt es die Möglichkeit, Eingabeaufforderungen
zu optimieren und Aufgaben zu
planen, um ein kontrolliertes und vorhersehbares Benutzererlebnis zu schaffen .
6. KI-Agenten im Geschäftskontext verstehen: Nein, ein weiterer wichtiger Begriff
, den Sie sehen werden , ist KI-Agent. Nein, ein KI-Agent ist eine Softwareeinheit, die
selbstständig Entscheidungen treffen, Maßnahmen
ergreifen oder
mit einer Umgebung interagieren
kann Maßnahmen
ergreifen oder
mit einer Umgebung interagieren , um
bestimmte Ziele zu erreichen Diese Agenten nutzen
künstliche Intelligenz, einschließlich maschinellem Lernen und natürlicher Sprachverarbeitung, und sie können ihre Umgebung verstehen und
darauf reagieren, sich
häufig auf der
Grundlage von Feedback anpassen Sie sind für bestimmte Aufgaben
oder Ziele konzipiert , wie z. B. das
Empfehlen von Produkten, Beantworten von Kundenanfragen oder Steuerung eines Roboters
in einem physischen Raum Zu den konkreten Beispielen für
KI-Agenten gehören Chatbots
und virtuelle Assistenten, also KI-Agenten, die mit Benutzern
interagieren Sie können Fragen beantworten, Informationen
bereitstellen oder
bei allgemeinen Aufgaben helfen Sie verfügen auch über
Empfehlungssysteme
wie Systeme , die
auf dem Verhalten
und den Vorlieben der Nutzer basierende Produkte,
Filme und Inhalte
vorschlagen, die sich als Sorry basierende Produkte,
Filme und Inhalte erweisen. Wir haben auch
Roboter-Prozessautomatisierung. Diese Agenten können
sich wiederholende Aufgaben wie Dateneingabe,
Formularverarbeitung oder Terminplanung übernehmen , und Sie verfügen über
KI-Roboter, die in
einer physischen Umgebung wie einem Lagerroboter,
einem autonomen Fahrzeug
oder
einem Heimassistenten arbeiten einer physischen Umgebung wie einem Lagerroboter,
einem autonomen Fahrzeug
oder einem Heimassistenten Im Unternehmenskontext
können
KI-Agenten nun dazu beitragen, Abläufe zu
rationalisieren und den Kundenservice zu
verbessern, da sie
Anwendungen intelligenter machen und besser auf die Bedürfnisse der Benutzer
reagieren Sie können auch bei der
Entscheidungsfindung helfen, indem Aufgaben
automatisieren und Erkenntnisse
liefern
7. Visual Studio Code: Jetzt haben wir Visual
Studio-Code als Alternative. Dies ist eine großartige
plattformübergreifende Alternative,
was bedeutet, dass sie für Windows,
Linux und Mac im Vergleich zu
Visual Studio,
das nur für Windows verfügbar ist,
funktioniert Linux und Mac im Vergleich zu
Visual Studio, . Und natürlich ist es mit dem Internet
kompatibel. Und dann ist da noch diese Erweiterung
namens C Sharp DevKit, die sehr nützlich ist uns das Visual
Studio-Gefühl zu vermitteln und eine Art
Bootstrap für.net-bezogene
Operationen wie das
Erstellen von Bootstrap für.net-bezogene Projekten und das Interagieren mit
unseren Für einige Dinge müssen
Sie jedoch einige CLI-Befehle schreiben ,
was Wir werden diese durchgehen
, und in diesem Kurs werde
ich
mehr Visual Studio-Code als Visual Studio
verwenden. Um Visual Studio-Code herunterzuladen, können
Sie zu
code.visualstudio.com gehen und von hier aus herunterladen. Sie können es für Windows oder andere Plattformen herunterladen Ich denke, dies wird
standardmäßig davon abhängen, auf welcher Plattform Sie sich befinden, wenn
Sie diese Seite aufrufen. Nach einem sehr einfachen und unkomplizierten
Installationsvorgang erhalten
Sie Ihr
Visual Studio-Codefenster. Und es ist wirklich
nur ein Texteditor, aber er kann
durch Erweiterungen erweitert werden. Sobald Sie hier sind, können Sie zur Registerkarte „Erweiterungen“
gehen und von hier aus nach dem C Sharp Def-Kit
suchen Sobald Sie also auf
das C Sharp Def-Kit klicken, sehen
Sie
dort die Schaltfläche zur Installation Hier wird meins aktualisiert, Sie werden
also sehen, dass es
derzeit Ink installiert Aber für eine Erweiterung, die
Sie nicht haben, nehmen wir an, die Scubnt ist eine Du wirst diesen Button sehen,
wir sagen „Installieren“. Wenn Sie also
zum C Sharp Def-Kit gehen, sehen
Sie Installieren
und klicken darauf Wenn Sie es
nicht sofort sehen, können
Sie natürlich jederzeit suchen
. Sobald Sie es gefunden haben, können
Sie es installieren Es kann einige Zeit dauern.
Jetzt müssen Sie auch
das.net-SDK manuell installieren Das kommt also mit
Visual Studio, aber wenn Sie
Visual Studio-Code
verwenden und/oder Visual Studio nicht verwenden können
, dann müssen Sie sich die Datei
dotnet.miicrosoft.com
holen und das SDK besorgen, das Sie aber wenn Sie
Visual Studio-Code
verwenden und/oder Visual Studio nicht verwenden können
,
dann müssen Sie sich die Datei
dotnet.miicrosoft.com
holen und das SDK besorgen, das Sie verwenden möchten. Jetzt können Sie beide installieren. Dieser ist der empfohlene. Und wie gesagt,
Standardsupport, und es wurde
kurz vor der
Aufnahme veröffentlicht . Was ich damit sagen will, ist,
dass beide funktionieren, Sie können beide installieren und Sie
können beide verwenden, um Ihre Projekte zu
erstellen, und es ist ziemlich einfach, von.net
eight auf.net nine
zu aktualisieren , falls Sie
sich später dazu entschließen Nun, Sie werden hier sehen, dass dies für Windows genauso
ist, aber Sie können alle Alles, was Sie tun müssen, ist zu A zu
gehen und ich gehe zu allen.net-Downloads,
und von hier aus werden
Sie sehen, dass
Sie Versionen für
verschiedene Betriebssysteme haben , die nicht auf Windows basieren Sobald Sie also all
diese Dateien installiert haben,
Visual Studio-Code, das.net-SDK Und ich empfehle sogar, ich habe die Reihenfolge
durcheinander gebracht. Ich entschuldige mich. Führen Sie zuerst Visual Studio-Code aus, installieren Sie
dann das SDK
und versuchen Sie dann, das C Sharp DevKit zu installieren Wie es heißt, ist
das Dotnet-SDK eine der Anforderungen Um Probleme zu vermeiden, tun Sie dies in dieser Reihenfolge, und
dann können Sie fortfahren
8. Microsoft Azure-Konto: Nun, was ist Microsoft Azure? Microsoft Azure ist Microsofts
Flaggschiff-Cloud-Computing-Plattform die Dienste
wie Datenverarbeitung,
Netzwerke, Speicher
und Datenbanken bereitstellt . Es bietet nahtlose
Hybrid-Cloud-Lösungen
und ermöglicht es
Unternehmen, Rechenzentren
vor Ort in Cloud-Ressourcen zu integrieren . Außerdem bietet es eine einfache Skalierbarkeit, sodass Unternehmen Ressourcen je nach Bedarf
und anderen Faktoren schnell nach oben oder
unten
skalieren können. Am wichtigsten ist jedoch, dass
Azure integrierte
KI- und maschinelles Lerndienste
wie Azure Machine Learning,
kognitive Dienste,
Bot-Dienste und andere umfasst KI- und maschinelles Lerndienste wie Azure Machine Learning, kognitive Dienste,
Bot-Dienste und andere All diese Dienste können
bei der Entwicklung
intelligenter Anwendungen verwendet werden . Jetzt werde ich Ihnen nur kurz
erklären, was
zur Einrichtung eines Azure-Kontos erforderlich ist , falls
Sie noch keines haben. Zunächst müssen Sie
ein Microsoft-Konto erstellen oder sich mit
einem vorhandenen anmelden. Ihre Reise beginnt also genau
hier auf azure microsoft.com, und ich bin mir sicher, dass sie Sie
auf
die Website weiterleiten werden, die für Ihren
Standort auf der Welt am besten
geeignet ist werden, die für Ihren
Standort auf der Welt am besten
geeignet Von hier aus
können Sie sich also
anmelden, wenn Sie bereits ein
Azure-Konto haben ? Nun, melden Sie sich an. Falls nicht, können Sie
auf Neu bei Azure klicken und kostenlos starten. Und dann müssen Sie Ihr Abonnement
wählen. Sie haben also die
Möglichkeit, eine kostenlose Testversion abzuschließen, mit der Sie
die Plattform und ihre Dienste
ohne Vorabkosten erkunden die Plattform und ihre Dienste
ohne Vorabkosten Sie bekommen einen gewissen
Geldbetrag dafür, und sie geben Ihnen hier unten
die Fakten Lassen Sie mich nicht versuchen, Sie zu
zitieren und in die Irre zu führen, aber Sie kriegen es hin, 200$ für 30 Tage, um Dienste auszuprobieren Aber im Laufe eines Jahres erhalten
Sie tatsächlich
viele kostenlose Dienste
und
während dieser 12 Monate Zugang zu kostenlosen Diensten 12 Monate Ordnung? Also kannst du kostenlos
anfangen Sie verlangen zwar, dass Sie
einige Zahlungsinformationen hinzufügen, aber es gibt keine
Vorabverpflichtung Sie können jederzeit kündigen, und Ihre Kreditkarte wird nicht belastet, wenn das kostenlose
Abonnement abgelaufen ist. Sie müssen sich also
keine Sorgen machen, dass die
Kreditkarte belastet wird. Sobald ein kostenloses
Abonnement abgeschlossen ist, verlieren
Sie einfach den Zugriff. Aber wenn Sie das kostenlose Angebot
nicht nutzen möchten und
einfach direkt
zum kostenpflichtigen Angebot wechseln möchten oder wenn
das kostenlose Angebot erschöpft ist und Sie anfangen müssen, zu zahlen, um die Dienste weiterhin nutzen
zu
können, müssen Sie die Option
Pay-as-you-go-Option wählen. Dadurch erhalten Sie
mehr Ressourcen, mehr Funktionen und
natürlich ist es kostenpflichtig. Es gibt also weitaus
weniger Einschränkungen in Bezug darauf, was Sie tun können und was nicht, und Sie zahlen nur für das, was Sie nutzen. Das
ist eine großartige Sache. Sie können also
viele dieser Dienste einrichten,
vor allem, während
Sie lernen. Sie können sie einrichten, und für die wenigen Minuten oder Stunden , die Sie den Dienst nutzen können, werden
Ihnen Gebühren berechnet. Aber sobald Sie
den Dienst zerstören, was ich Ihnen
zeigen werde,
wie Sie den Dienst außer Betrieb nehmen
oder die Zuweisung des Dienstes aufheben können, werden Ihnen keine Gebühren
mehr berechnet Das ist also ein großartiger Weg, während Sie lernen und nicht zu viel Geld ausgeben
möchten,
aber Sie wollen nicht
die Einschränkungen, die
das kostenlose
Konto mit sich bringt. Wenn Sie jedoch gerade erst mit Azura
beginnen, schlage
ich vor, dass Sie
mit dem kostenlosen Konto beginnen, damit Sie sehen können, wozu
es in der Lage ist, und das kostenlose Konto ist gut
genug für diesen Kurs Nachdem Sie also
das passende Abonnement für Ihre Bedürfnisse
und Ihr
Budget ausgewählt haben das passende Abonnement für , um richten wir eine so genannte
Ressourcengruppe ein, die verwendet
wird, unsere Ressourcen in einem
logischen Container zu organisieren , und dann werden wir
verschiedene Azure-Dienste
wie maschinelles Lernen,
den App Service und die
SQL-Datenbank untersuchen und nutzen verschiedene Azure-Dienste
wie maschinelles Lernen, Speicher.
9. Übersicht über den semantischen Kernel: Oder jetzt fangen wir
an und bauen in
diesem Abschnitt des Kurses
unseren allerersten Kernel Nun ein kurzer Überblick
darüber, was wir tun werden. Wir werden uns
den Kernel ansehen, was er ist. Wir haben bereits das
Konzept hinter dem semantischen Kernel besprochen. Jetzt werden wir
uns etwas genauer wie genau das funktioniert Wir werden uns
mit der Verwendung von Azure Open AI befassen und
einen einfachen Chat mit
dem semantischen Kernel durchführen einen einfachen Chat mit
dem semantischen Also bleib hier. In einige Konzepte untersuchen und diesem Abschnitt
werden wir
einige Konzepte untersuchen und auf
einige praktische Beispiele
eingehen.
10. Was ist der Kern?: Nun, was ist der Kernel? Der Kernel ist die
zentrale Komponente des semantischen Kernels Denken Sie also daran, dass der semantische
Kernel in Wirklichkeit das SDK ist. Was genau ist der Kernel? Er kann also
als Dependency
Injection-Container betrachtet werden , der
alle Dienste
und Plugins verwaltet , die die Ausführung
der KI-Anwendung erforderlich
sind. Denken Sie also daran, dass
der semantische Kernel insgesamt eigentlich
ein Wrapper für
die zugrunde liegenden SDKs ist , die jede
KI-Engine bereitstellen würde Also öffne KI als deine offene KI,
umarmtes Gesicht, all diese
haben ihre eigenen SDKs Der semantische Kernel
ist insgesamt ein Wrapper, der sie umgibt, und der Kernel selbst
verwaltet die verschiedenen Alle Dienste, die Sie
dem Kernel zur Verfügung stellen, werden also Bedarf nahtlos von
der KI genutzt Jede Aufforderung oder jeder Code, der im semantischen Kernel
ausgeführt
wird , verwendet den Kernel, um
die erforderlichen Dienste
und Plug-ins abzurufen die erforderlichen Dienste
und Plug-ins Jetzt ist der Kernel extrem
leistungsfähig, denn
das bedeutet, dass
wir als Entwickler einen einzigen Ort haben, an
dem wir
die wichtigsten
Teile unserer KI-Agenten konfigurieren können die wichtigsten
Teile unserer KI-Agenten Wir können sie auch überwachen. Und okay, nehmen wir zum Beispiel an, wir haben
eine Anwendung. Wir werden uns also ein Diagramm auf
hoher Ebene ansehen, das der
Microsoft-Dokumentation
entnommen ist . Wir haben also unsere Anwendung, und dann müssen wir sie bei der KI-Aufforderung
ausführen. Der Kernel wird also den besten KI-Dienst auswählen ,
um
die Eingabeaufforderung auszuführen. Er erstellt anhand
der bereitgestellten Eingabeaufforderungsvorlage eine Aufforderung, sendet
die Aufforderung an den AI-Service, empfängt und analysiert die Antwort und sendet schließlich die Antwort
vom LLM an die Anwendung zurück vom LLM an die Und während des
gesamten Prozesses können
Sie Ereignisse und
Middleware erstellen, können
Sie Ereignisse und
Middleware erstellen die in den verschiedenen Schritten ausgelöst
werden können . Das bedeutet, dass Sie
Aktionen wie Protokollierung und
Bereitstellung von Status-Updates für
Benutzer durchführen und natürlich alles
implementieren können, was erforderlich ist, um sicherzustellen, dass Sie KI
verantwortungsbewusst Und auch hier kann all
dies dank des semantischen Kernels von
einem einzigen
Ort aus erledigt werden semantischen Kernels von
einem einzigen
Ort
11. So erstellst du einen Kernel: Lassen Sie uns nun überprüfen, wie
wir diesen Kernel bauen. Wenn Sie also das
semantische Kernel-SDK verwenden, ist nur eine minimale Einrichtung Wir benötigen also das semantische
Kernel-SDK-Paket. Wir benötigen einen
Endpunkt für ein LLM, einen oder mehrere, aber in diesem Fall werden
wir nur einen verwenden,
nämlich Azure Open AI Wir benötigen das SDK, um über einen Endpunkt eine Verbindung zum LLM herzustellen
und die Eingabeaufforderungen auszuführen, und das semantische Kernel-SDK unterstützt verschiedene LLMs
wie Hugging Face,
Open AI und Azure Open AI Open AI und Azure Open Und wenn Sie sich fragen,
was der Unterschied zwischen
Open AI und Azure Open AI ist und was LLMs bedeuten, ich möchte
ein bisschen mehr Informationen, können
Sie
sich jederzeit meinen Kurs über generative KI für Dotnet-Entwickler ansehen können
Sie
sich jederzeit meinen Kurs über generative KI für Dotnet-Entwickler ansehen. Ich gehe in diesem
Kurs eingehend ein und lerne von Grund auf, wie man KI-Lösungen
entwickelt Für dieses Beispiel werden
wir also oder
für diesen Kurs verwenden,
eher Azure Open AI verwenden, und das gilt
umso mehr für dieses
Beispiel, das demnächst erscheinen wird . Während wir uns in diesem Kurs mit dem
Thema befassen, was für die
Erstellung unseres Kernels erforderlich ist , und in diesem Beispiel,
das demnächst erscheinen wird, werden
wir nur untersuchen was die Azure AI-Dienste sind. Also haben wir uns angesehen, was Microsoft Azure ist und wie
man das Konto einrichtet, und vorausgesetzt, Sie haben das alles schon einmal
gemacht, werde
ich Ihnen einfach
weitermachen und Ihnen
mitteilen, worum es bei den
KI-Diensten geht. Sie haben also Azure
AI Cognitive Services und Sie haben Azure
Open AI Service. Und ich werde mich
auf den Open AI-Dienst konzentrieren ,
da wir ihn in diesem Kurs
verwenden. Jetzt
bietet der Open AI-Service Zugriff auf leistungsstarke
Sprachmodelle wie GPT, und ich bin mir sicher, dass wir inzwischen alle
von GPT gehört oder dieses verwendet haben Und diese können verwendet werden, um
intelligente Anwendungen
wie Chatbots, Anwendungen zur
Inhaltsgenerierung und
Sprachübersetzung zu entwickeln intelligente Anwendungen
wie Chatbots, Anwendungen Inhaltsgenerierung und
Sprachübersetzung Verarbeitung natürlicher Sprache steht also an der Spitze der Arbeit von LLM Und Azure bietet robuste
NLP-Funktionen, denen wir als Entwickler Text Analytics
and Large Understanding
, kurz Louis, Analysen durchführen
und Analysen
wie gründliche Stimmungsanalysen
und andere Arten von mithilfe von Diensten wie Text Analytics
and Large Understanding
, kurz Louis, Analysen durchführen
und Analysen
wie
gründliche Stimmungsanalysen
und andere Arten von
Analysen gründliche Stimmungsanalysen
und Ein bisschen mehr über den
Azure Open AI-Dienst. Nun, lassen Sie uns einen Schritt zurücktreten. Open AI ist ein
KI-Forschungsunternehmen , das
mehrere bahnbrechende,
KI-gestützte Anwendungen wie
HatGPT entwickelt hat KI-gestützte Anwendungen wie , um nur eine zu nennen, eine
sehr Azure Open AI ist ein
Dienst, der uns
RESTful-APIs und
Zugriff auf Open AIS,
leistungsstarke
Sprachmodelle, bietet RESTful-APIs und
Zugriff auf Open AIS,
leistungsstarke
Sprachmodelle, . Möglicherweise
wissen Sie nicht, dass dies
verschiedene Modelle sind im
Chat-GPT verfügbar sind Aber wenn Sie CHAT GPT verwenden, Sie sicher
mit mindestens 3.54 und 40 vertraut Aber nur um Ihnen zu zeigen, dass es andere
Modelle gibt, auf die Sie aus
entwicklungspolitischer Sicht
zugreifen können , und da Sie offen sind, stellt
uns
KI diese zur Verfügung und gibt uns die Unterstützung und Garantie von Microsoft, da Sie natürlich
eine Infrastruktur hosten Mit diesen Modellen können
wir nun
Dinge wie die
Generierung von Inhalten, die Zusammenfassung, das Verständnis von
Bildern, die
semantische Suche
und die Übersetzung von natürlicher Sprache
in Code abschließen Dinge wie die
Generierung von Inhalten, die Zusammenfassung, das Verständnis von
Bildern, die
semantische Suche und die Übersetzung von natürlicher Sprache Es gibt also mehrere Dinge, die Sie mit diesen GBT-Modellen tun
können Wenn Sie sich eingehender mit ihnen
befassen möchten, können
Sie sich noch einmal meinen Kurs
Generative KI
für.net-Entwickler ansehen Generative KI
für.net-Entwickler Ordnung, jetzt, wo
wir verstanden haben was die Anforderungen für die Erstellung
des Kernels
und den Beginn der Erstellung
einer Anwendung
sind , werden
wir gleich
loslegen und mit der
Bereitstellung unserer Azure
Open AI-Ressource beginnen Bereitstellung unserer Azure
Open AI-Ressource
12. Azure OpenAI-Ressource erstellen: Ordnung, ich gehe also davon aus
, dass Sie
Ihr Microsoft-Konto bereits als Konto eingerichtet haben und sich anmelden können Sobald Sie sich angemeldet haben,
werden wir
direkt mit der Erstellung unserer
Open AI-Ressource beginnen Also werde ich hier oben
nach
Open AI suchen und es tatsächlich hier
haben, aber Sie können immer einfach die Suche
eingeben und schon
klicken Sie auf Azure Open AI. Und von hier aus
werden wir weitermachen und diese Azure
Open AI-Ressource
erstellen. Beachten Sie, dass für
diese Ressource Kosten anfallen. Wenn Sie also das kostenlose Kontingent nutzen, verfügen
Sie natürlich über die erforderlichen Credits, und Sie erhalten möglicherweise
nur sehr eingeschränkte Funktionen, aber
andernfalls fallen Kosten Wenn Sie also mit einer Demo
fertig sind, denken
Sie daran, Ihre Ressourcen zu
reduzieren, um
sicherzustellen, dass Ihnen
nichts Unnötiges entsteht Für diesen Kurs werde
ich also eine neue Ressourcengruppe erstellen und diese
Ressourcengruppe Semantic Kernel RG
nennen Ressourcengruppe Semantic Kernel Also einfach etwas, mit dem
ich mich identifizieren kann. Wenn ich also
die Ressourcen entferne, muss
ich nur
diese Ressourcengruppe entfernen, die ich sehr
spezifisch benannt habe, basierend auf den Beispielen, die
wir verwenden werden. Also mache ich einfach
weiter und mache das und
gebe dem dann einen Namen. Und dieser Name
möchte im Allgemeinen, dass er einzigartig ist. Sie könnten also etwas
anderes verwenden, um es einzigartig zu machen. Und wenn Sie diesen Kurs
machen, wird
meine Ressource nicht
mehr existieren, aber Sie können jederzeit
Ihren Namen hinzufügen, um sie etwas
einzigartiger zu machen,
nur für den Fall,
dass sie sagen, dass sie nicht verfügbar ist Und was die Preisstufe angeht, werde
ich mich für den Standard entscheiden Wenn Sie nun
die vollständigen Preisdetails sehen möchten, können
Sie dies über diesen Link tun. Und dann werde ich weitermachen. Ich werde bestätigen, dass ich möchte alle Netzwerke
auf diese Ressource zugreifen können, und ich muss
sie nicht taggen und dann auf Weiter klicken. Und von hier aus
wird es mich fragen, oder es wird
alles validieren, was eingegeben
wurde , und
dann kann ich etwas erstellen. Sobald dieser
Abschlussschritt abgeschlossen ist, können
wir zur Ressource übergehen. Diese Ressource bietet uns jetzt Zugriff auf Azure Open AI Studio. Gehen wir also ins Studio. Und während es geladen wird,
müssen Sie sich
möglicherweise erneut authentifizieren Sie können sich mit
Ihren Azure-Anmeldeinformationen authentifizieren, und im Handumdrehen
sollten Sie zugelassen werden Sobald wir also hier sind,
wollen wir ein
neues Deployment erstellen Wir richten also das LLM ein,
das unseren Kernel mit
Strom versorgen wird, oder? Der Kernel ist eigentlich nur
ein codebasierter Konnektor zu einem LLM, das wir haben Also
verwenden wir wieder Azure Open AI. Und hier gehe ich
zu Bereitstellungen und wir werden eine neue Bereitstellung
erstellen Also werden wir auf Modell bereitstellen
klicken
und das Basismodell bereitstellen also nur für den Kontext ein Basismodell bereitstellen, Sie können also nur für den Kontext ein Basismodell bereitstellen,
da Azure Open A über
mehrere Basismodelle verfügt , die mit bestimmten Informationen
und für bestimmte Dinge vorab trainiert wurden. Wir können dieses Basismodell
oder ein anderes Modell aber auch
verfeinern , um es
noch individueller an unsere Bedürfnisse anzupassen. Die Bedürfnisse einer
Fluggesellschaft
würden sich also völlig von
den Bedürfnissen einer Schule unterscheiden. Stimmt das? Das Basismodell
kann also ein allgemeines, du weißt schon, Mittelding für beide weil das
Basismodell auf viel von
jeder Kleinigkeit
oder ein bisschen auf jeder Kleinigkeit
trainiert worden wäre auf viel von
jeder Kleinigkeit
oder ein bisschen auf jeder Kleinigkeit
trainiert . Aber manchmal
möchten Sie
Ihr Modell wirklich an Ihre spezifischen
Geschäftsanforderungen anpassen. In diesem Beispiel gehen
wir jedoch von
einem Basismodell aus. Lassen Sie uns also ein Basismodell einsetzen und suchen nach der GPD Sie sehen hier also, dass Ihnen
mehrere GPT-Modelle und
mehrere
Versionen zur Verfügung stehen Ihnen
mehrere GPT-Modelle und
mehrere
Versionen zur Verfügung Und jede Version hat
ihre eigenen Fähigkeiten und wäre
an bestimmten Informationen
und bis zu einem bestimmten Punkt geschult worden und bis zu einem bestimmten Punkt also bei der Auswahl der Modelle Seien Sie also bei der Auswahl der Modelle sehr, sehr überlegt. Ich werde mich jedoch für den GPT 35 Turbo,
16 K
entscheiden . Und wenn Sie 16 K nicht sehen, können
Sie den
regulären GPT Von hier aus
werde ich das bestätigen. Und dann kann ich dem
Einsatz einen bestimmten Namen geben. Für den Fall
, dass ich vielleicht mehrere Bereitstellungen
desselben Modelltyps
habe, möchte ich
ihnen eindeutige Namen geben In diesem Fall belasse ich
es einfach beim Standardnamen
, der sowieso der Name
des Modells ist Und ich muss nichts
ändern. Wenn Sie etwas ändern möchten, können
Sie unter
Anpassen die Anzahl der Tokens
ändern, die pro Minute
gesendet werden. Sie können die Version im
Moment ändern , Standard
ist die einzige Option, und wir haben Standard
- und Standardversion zwei für Inhaltsfilter, und ich werde das dynamische Kontingent nicht
aktivieren. Und ja, ich kann es jetzt bereitstellen.
13. Erstelle eine Chat-Fertigstellungs-App: In Ordnung, jetzt werden wir
etwas Code schreiben. Und in dieser Lektion werde
ich
Visual Studio-Code
und die.net-CLI verwenden , einfach weil es ein bisschen
einfacher ist und es
für alle, unabhängig von
Ihrem Betriebssystem, einfacher ist , dem zu folgen Wenn Sie sich jedoch mit Visual
Studio besser auskennen, Sie
gerne
weitermachen, da wir
lediglich eine neue
Konsolenanwendung erstellen Also werde
ich mit der.net-CLI den Befehl.net NU
Console O Build your Kernel ausführen Console O Build your Das bedeutet also,
eine neue Konsolen-App zu erstellen und diese in
einem Ordner namens
Build your kernel
in dem von
Ihnen ausgewählten Ziel auszugeben einem Ordner namens
Build your kernel in dem von
Ihnen ausgewählten Ziel Also lass uns
damit weitermachen. Nein, ich kann sehen, wie Sie Ihren Kernel erstellen
und dann den Codepunkt Visual
Studio-Code
starten an dieser Stelle ausführen. Sobald
der Visual
Studio-Code gestartet ist, möchte ich als Nächstes das Terminal im
Visual Studio-Code aufrufen. Und ich könnte das auch
innerhalb des ursprünglichen
Terminalfensters machen , aber warum nicht das Fenster
im Visual Studio-Code verwenden Wenn ich dieses
Terminal aufrufe, kann ich jetzt den
Befehl.net add package,
miicrosoft dot Semantic Kernel eingeben miicrosoft dot Also das wird jetzt weitermachen und das Paket
holen,
das es uns ermöglicht, den semantischen Kernel
in unserer Anwendung zu unterstützen,
und dann geht es los, und dann geht es los Und sobald das erledigt ist, bestätige
ich einfach
die Version, mit der
wir arbeiten Also die Version, wenn Sie zur CSP-Datei
gehen, sind
wir jetzt bei Version
1.29 Punkt oh Jetzt können Sie
diese Bearbeitungsansicht verwenden oder Sie können einen Solution Explorer
verwenden, was etwas natürlicher ist Wenn Sie Visual Studio verwenden, fühlt
es sich aufgrund der Anordnung etwas natürlicher
an. Und das ist verfügbar,
wenn Sie das C Sharp DevKit
installiert haben das C Sharp DevKit
installiert In Ordnung, also lasst uns zu unserem Beispiel
kommen. Also werde ich mit
einer Nutzungsanweisung beginnen, um diesen semantischen Kernel zu verwenden Ich werde auch weitermachen
und einen Builder initialisieren,
und dieser Builder wird
Kernel Dot Create Builder sein Kernel Dot Create Denken Sie also daran, dass wir Beginn der Diskussion über
den Kernel gesagt
haben, dass er wie ein
Dependency Injection-Container ist Wenn Sie diesen Net Core also schon einmal benutzt
haben, sollte Ihnen
das nicht
allzu ungewohnt vorkommen Jedes Mal
, wenn Sie ein Programm öffnen, das in einer Kernanwendung
eine A-Geschwindigkeit oder
zumindest, sagen wir,
eine A-Geschwindigkeit auf NCR,
Razor-Seiten oder MVC höher sieht Kernanwendung
eine A-Geschwindigkeit oder
zumindest , sagen wir,
eine A-Geschwindigkeit auf NCR, ,
die vorkonfiguriert ist, sehen
Sie immer ein Builder-Objekt
, sehen
Sie immer ein Builder-Objekt mit dem Sie Abhängigkeiten hinzufügen können Dieser Kernel-Builder ermöglicht
es uns also,
die LLM-Abhängigkeiten hinzuzufügen , die
wir Also hier sage ich, offene KI hinzufügen,
und dann werden Sie sehen, dass Sie Azure Open AI und
die verschiedenen Arten
von Azure Open AI
hinzufügen,
Dienste, die ich von Anfang an
hinzufügen kann, oder? und dann werden Sie sehen, dass Sie Azure Open AI und
die verschiedenen Arten
von Azure Open AI
hinzufügen ,
Dienste, die ich von Anfang an
hinzufügen kann, oder Ich kann hier auch Plugins
und Dienste hinzufügen. In diesem Beispiel machen
wir also eine App zum Abschließen von
KI-Chats, und dann wird es
einige geben , es wird einige Überladungen geben Wenn wir uns also die Überladungen ansehen, ein
Bereitstellungsname und ein
Endpunkt sowie verschiedene
Dinge wie Token,
Anmeldeinformationen,
Service-ID usw. erwartet Endpunkt sowie verschiedene
Dinge wie Token, . Sie haben also unterschiedliche
Überladungen für diese Methode. Aber bevor ich sie ausfülle, werde
ich
das einfach beenden und Var-Kernel sagen Ist gleich, und
dann sagen wir Builder, mach weiter und baue. Das heißt also, okay, nimm all die
verschiedenen LLM-Endpunkte und alles, was wir
hinzugefügt haben, und
erstelle dann einfach ein letztes Entschuldigung, Objekt. Mein Fehler. Nur um das zu beschleunigen, damit Sie nicht rumsitzen
und mir beim Tippen zuschauen müssen. Ich werde weitermachen und sagen , dass Sie
die richtige Zeile
in Ihre Anfrage einbauen. Das ist also eine Aufforderung an den Benutzer, und dann
erhalte ich seine Anfrage, die ich in
einer Variablen namens Prompt speichern werde. Sobald ich diese
Eingabe vom Benutzer
habe, werde ich weitermachen und sie
an den Kernel weitergeben. Also werde ich sagen, dass
das Ergebnis gleich ist, und dann warten wir
auf den Kernel. Und nur damit Sie es wissen, der
Kernel hat mehrere Methoden, asynchron und
synchron. Sie können also eine Funktion erstellen,
es kann ein Plugin erstellen. Und wir werden uns auch mit
all diesen Dingen befassen. Wir können Prompt
aufrufen, Acing aufrufen usw., Streaming aufrufen Ohne auf die Einzelheiten jeder
einzelnen Methode einzugehen, werden wir
hier eine Aufforderung aufrufen. Wir verwenden die
asynchrone Methode. Daher das Gewicht, und
wir werden diese
Prompt-Variable, diesen Wert, übergeben diese
Prompt-Variable, diesen Wert, Und dann machen wir
weiter und trösten die richtige
Linie, das Ergebnis. Sobald wir das alles erledigt haben, machen wir jetzt einen Rückzieher und füllen die fehlenden
Informationen hier Schauen wir uns also die verschiedenen Parameter
an
, die benötigt werden Zunächst benötigen wir also den Namen der
Bereitstellung. Und ich werde hier quasi den Parameternamen angeben ,
damit wir wissen, welchen
Wert wir eingeben. Also brauchen wir den
Namen der Bereitstellung. Was kommt als Nächstes? Wir können den Open AI-Client verwenden, aber ich möchte den API-Schlüssel verwenden. Ich schaue mir also
die nächste Überladung an. Und wir können reinlegen. Damit wir Anmeldeinformationen eingeben können. Das ist nicht der, den ich will. Ich kann diesen API-Schlüssel
auch eingeben, oder? Also kann ich den
String-Endpunkt und dann den API-Schlüssel eingeben. Also lassen Sie uns dort den Endpunkt einfügen. Und im Moment mache ich
sie einfach leer, weil
wir natürlich die Werte
abrufen werden,
und dann
wäre der API-Schlüssel der nächste Parameter Ordnung. Das sind also die drei
Mindestinformationen, die wir benötigen damit
der Kernel Verbindung
zu unserem
Chat-Abschluss herstellen kann. Also lass uns zurück ins
Studio springen. Im Studio können wir also zuerst den Namen der Bereitstellung
abrufen. Also welchen Namen Sie ihm auch gegeben haben
, als Sie ihn erstellt haben, das ist der Name, über den
wir sprechen Zurück im Code lautet der Name der
Bereitstellung also GPT 35. Ich habe es nicht geändert, also ist
es derselbe Name, oder? Dann der Endpunkt
und der API-Schlüssel. Nun, es wäre
leicht zu denken: Oh, hier ist eine Ziel-URI, das ist Endpunkt, aber das ist
nicht ganz der Endpunkt. Wir müssen zurück
zu unserem Portal und in
unserem Portal in der Ressource
als Ihrer offenen KI-Ressource springen unserem Portal in der Ressource
als Ihrer offenen KI-Ressource Gehen
wir runter zu den Schlüsseln und dem Endpunkt und wir werden
hier den Endpunkt sehen. Dieser Endpunkt ist hier eigentlich der erste Teil
der Ziel-URI. Es ist tatsächlich bis zu diesem Punkt, und der Rest ist
der
Ziel-URI für diese Ressource
, den Sie in
bestimmten Situationen verwenden können. In dieser Situation
brauchen wir das alles nicht. Es ist also einfacher oder
besser, den offenen KI-Endpunkt
als
die
spezifischen Bereitstellungen ins Visier offenen KI-Endpunkt
als
die spezifischen Bereitstellungen Punkt, richtig? Also kommen
wir zurück, und das ist unser Endpunkt, und dann können wir den API-Schlüssel verwenden. Und beim Testen habe ich
festgestellt, dass dieser Schlüssel
tatsächlich derselbe ist wie
der Schlüssel hier. Zumindest war das meine Erfahrung. Aber so oder so, es ist
besser, den Schlüssel zu verwenden ,
der dem gewünschten Endpunkt zugeordnet ist. Lassen Sie uns also weitermachen und
diesen kopieren und einfügen. Und beachten Sie, dass Sie die
Werte, die
Sie hier sehen , im Allgemeinen nicht direkt im Code
speichern möchten. Im Allgemeinen
möchten Sie sie in
eine Umgebungsvariable einfügen oder Geheimnisse verwenden. Dies ist ein einfaches
Beispiel, eine einfache Demo, also werde ich jetzt nicht
auf all diese Komplikationen eingehen ,
aber
Sie sollten wissen, dass
ich
diese Werte , die
Sie hier bis zum Abschluss des Kurses sehen, aus meinen Ressourcen gestrichen hätte Stellen Sie also sicher, dass Sie
Ihre eigenen verwenden und versuchen Sie nicht die exakten Werte
zu kopieren
, die Sie Jetzt haben wir also unsere einfache Konsolen-App, die einige Eingaben
entgegennimmt und einige Ergebnisse
zurückgibt, dank unserer GPT Three, Five, Turbo-Implementierung,
die wir in
unserer offenen KI-Ressource
auf Microsoft Azure haben unserer offenen KI-Ressource
auf Microsoft Azure Lassen Sie uns also weitermachen
und das testen. Also gut, zu Ihrer
Anfrage, sagen wir,
listen wir die besten Orte auf Jamaika
auf, die Sie besuchen sollten. Ordnung. Also ich glaube, du weißt
inzwischen, dass ich Jamaikaner bin Also lass uns sehen, wo in meinem Land der beste Ort
für dich
wäre, um ihn zu besuchen Und sehen Sie, dass sie
einige wirklich nette Orte auflisten Montego Bay Grill Oraios Kingston ist die Hauptstadt. Sie können immer wandern
oder Berge blau machen. Geh nach Port Antonio, um dich zu entspannen. Trelon ist reich an Land. Kultur, Entschuldigungen
und Flora und Fauna. Treasure Beach ist großartig.
All dies sind großartige Orte. Also ja, ich stimme dieser Liste und danke Ihnen für unsere App zur
Chat-Vervollständigung, die wir gerade mit
unserem semantischen Kernel erstellt
haben
14. Abschnittsüberprüfung: Ordnung, dieser
Abschnitt war also kurz , aber praktisch. Also, was haben wir getan? Wir haben untersucht, was der Kernel ist, der der Dreh- im
gesamten Konzept
des semantischen Kernels gesamten Konzept
des semantischen Wir haben uns angesehen, wie wir KI-Ressourcen
bereitstellen und öffnen können, und dann haben wir uns
das Azure AI Studio angesehen wo wir
ein GPT-Modell
auf der Grundlage der Version 3.5 erstellt haben ein GPT-Modell
auf der Grundlage der Und dann haben wir mit unserem semantischen
Kernel
, dem SDK, eine Verbindung dazu hergestellt unserem semantischen
Kernel
, dem SDK, Kodieren und erstellen Sie unsere
allererste Anwendung zur Chat-Vervollständigung mithilfe des semantischen Kernels So
einfach ist es also, sobald Sie
das LLM haben und
all diese Informationen für
den Endpunkt usw. haben. Sie müssen sich keine Gedanken über irgendwelche SDKs
und irgendwelche Komplikationen machen, die
mit unserer Einzigartigkeit im Vergleich
zum und irgendwelche Komplikationen LLM, mit dem verbunden wird
, entstehen könnten,
weil der semantische Kernel all das
abstrahiert und uns eine einfache
Möglichkeit bietet, eine Verbindung herzustellen und zu weil der semantische Kernel all das abstrahiert und uns eine einfache
Möglichkeit bietet, eine Verbindung herzustellen und uns eine einfache
Möglichkeit bietet Nachdem wir nun
ein praktisches Beispiel gesehen haben, gehen
wir zum
nächsten Abschnitt über, in dem
wir uns mit Plugins befassen werden.