Transkripte
1. Einführung in den Kurs „KI für Anfänger:innen“: Hallo. Hier ist Raja Marika Mandate In dieser Klasse A für Anfänger können
Sie die Grundlagen
der künstlichen Intelligenz erlernen Ich habe diesen Kurs so konzipiert, dass auch Anfänger A-Konzepte leicht
verstehen können. Neben der Erklärung eines Fachjargons und der Auflistung verschiedener A-Tools
habe ich mein Bestes getan, um
verschiedene A-Konzepte auf interessante
Weise zu erklären verschiedene A-Konzepte auf interessante
Weise Zum Beispiel die Nutzung der
lernbaren Maschinen von Google und der Spielwiese von TensorFlow Sie können lernen, wie Sie
Untertiteldateien lokal mit dem Modell
Open as Whisper erstellen Untertiteldateien lokal mit dem Modell
Open as Whisper Sie werden
lernen,
ein einfaches
Tensorflussmodell mit Google Colab zu trainieren ,
und Sie können die Grundlagen des
Trainings des Modells
mithilfe von Psyche Learn erlernen Trainings des Modells Insgesamt habe ich
versucht, diesen Kurs
informativ und einfach zu halten , damit er auch Anfänger leicht verstehen
2. Einführung in KI: Das Video erklärt die Grundlagen der
künstlichen Intelligenz, KI, sodass
auch Anfänger sie leicht verstehen können. Zuallererst, was ist KI? KI steht für künstliche
Intelligenz. Es ist eine Methode,
Computer dazu zu bringen , wie Menschen zu denken und zu
handeln. Aber
bis jetzt entspricht es nicht dem Niveau von Menschen, aber Wissenschaftler arbeiten
auf dieses Ziel hin. Sehen wir uns einige
Beispiele für die Verwendung von AA an. Apple Tree, Amazon Alexa
und Google Assistant. Diese Art von Assistenten
wird von KI unterstützt. Wir können sie bitten, unsere Fragen zu
beantworten. Und wenn es
mit SmartCom verbunden ist, können
wir sie bitten, das Licht zu wechseln
, auch solche Aktivitäten Ähnliche Chatbots wie Chart
GBT und Google Deutschland helfen uns, Antworten auf unsere Fragen zu geben,
und wir können sie bitten, Artikel und
Blogbeiträge
zu schreiben, sogar wir können
sie bitten, elendes Programmieren zu schreiben All diese Dinge
werden also von KI angetrieben. Und in ähnlicher Weise
selbstfahrende Autos ohne Fahrer. Es wird durch KI ermöglicht. A wird jetzt Teil
unseres täglichen Lebens. Wenn
wir beispielsweise eine Google-Suche durchführen, erhalten
wir Hilfe von KI. A zeigt die besten Ergebnisse. Okay. Und in ähnlicher Weise verwenden
Netflix und YouTube
, diese Art von
Streaming-Plattformen, KI, um Filme und Videos
vorzuschlagen , die für VOS
relevanter sind. Und Chatbots, wie der
Kundensupport, werden auch
Chatbots von KI unterstützt Daher verwenden viele Unternehmen
, Banken und solche
Branchen KI-gestützte Chatbots, um den Kundensupport
bestmöglich zu gestalten Und Sie haben vielleicht Google NS
verwendet, oder? Mit Hilfe von Google Lens können
wir also alle Schilder
in unsere gewünschte Sprache übersetzen in unsere gewünschte Sprache und
Google Lens zur
Erkennung von Objekten verwenden . Nehmen wir an, Sie
sehen ein neues Objekt, wenn Sie nichts davon wissen, können
Sie einfach ein Foto davon machen und mit Hilfe
von Google Lens können
Sie einfach
Details zu diesem Objekt abrufen, oder? All diese Dinge
werden also von KI angetrieben. Fast wir benutzen
sie täglich. Lassen Sie uns nun etwas über
die Arten von KI erfahren. Eine davon ist Narrow AI. Das ist KI, die eine Aufgabe erledigt. Nun, zum Beispiel Google
Translate Self Driving Cast. Das bedeutet, dass die mit
Google Translate verwendete KI für Self Driving Cast nicht nützlich
sein wird . Jede Anwendung oder Aufgabe
wird ihre eigene Art von KI verwenden. Okay? Es ist eine enge KI. Derzeit
ist fast die gesamte A-Nutzung nur noch auf EA beschränkt. Und die nächste ist allgemeine KI, bekannt als AGA, richtig? Das bedeutet, dass sie wie Menschen
denken wird, aber derzeit
ist sie nicht verfügbar Es befindet sich noch in der Entwicklung. Also wenn AJ kommt, kann
es sich ähnlich verhalten wie Menschen. Und noch ein Typ ist da, das
ist Superintelligenz ASI. Okay. Im Fall von ESI ist
es soweit,
es ist nur Theorie. Es bedeutet, dass es so sein wird, ich meine, AA wird sich besser benehmen
als Menschen, okay? gibt also viele kontroverse
Diskussionen darüber, ob es gut für
Menschen sein wird oder ob es sehr schlecht sein wird. Ich werde die
Menschen auf diese Weise vernichten. Es
werden viele Diskussionen geführt. Teer wie nur theoretisch. Äh, derzeit sehen
wir in
unserem täglichen Leben die enge KI, und Wissenschaftler
arbeiten daran, eine allgemeine KI zu entwickeln. Sehen wir uns nun einige grundlegende
A-Konzepte mit Beispielen an, okay? Sie haben vielleicht
schon oft von dem Wort
maschinelles Lernen gehört, oder? Im Fall von maschinellem Lernen lernt
A aus Daten. Das ist das Grundprinzip
des maschinellen Lernens. Also mussten wir Daten
für das Unterrichten der KI bereitstellen, okay? Zum Beispiel ein sehr
einfaches Beispiel. Sehen wir uns ein sehr
einfaches Beispiel an. Du bekommst E-Mails, oder? Einige E-Mails werden für Sie
relevant sein, echte E-Mails. Einige von ihnen sind Spam, okay? also, nachdem Sie den Spam gesehen Wenn Sie also, nachdem Sie den Spam gesehen haben, diese
bestimmte E-Mail als Spam markieren, wenn Sie es für
ein paar E-Mails tun, okay. Aber danach markiert dieser
E-Mail-Client
automatisch alle
neuen Spam-E-Mails, okay? Das ist also das Verhalten
dieser Art von maschinellem Lernen. Also ist es okay, aus
deinem Input zu lernen? Also, basierend auf Ihren Eingaben, geht
es darum, zu lernen Spam-E-Mails von echten E-Mails
zu trennen, okay? Das ist die Grundvoraussetzung
des maschinellen Lernens. Als nächstes kommt Deep Learning. Im Fall von Deep Learning verwendet
A neuronale Netzwerke. Zum Beispiel Gesichtserkennung. Es ist etwas Ähnliches wie das
menschliche Gehirn, dieses Konzept. Das nächste ist die Verarbeitung natürlicher
Sprache (NLP). Es ist so, die
natürliche Sprache Englisch,
Tamil, so zu verstehen , okay Im Zeichen GPT können
wir also Fragen in jeder
Art von Satz stellen, Es gibt keine
Standardbefehle. Dem müssen wir in
der Struktur nicht folgen. Wir können ganz
natürlich mit unseren Freunden sprechen, oder? So können wir mit
Char GPT oder irgendwelchen
AA-Tools sprechen, die auf
natürlicher
Sprachverarbeitung (NLP) basieren , okay Maschinelles Lernen ist
also dazu da, aus Daten zu lernen. Deep Learning verwendet neuronale Netze, um die Muster
automatisch zu
finden. Und die
Verarbeitung natürlicher Sprache dient dazu natürliche
Sprache wie Englisch zu
verstehen. So lustige A-Aktivitäten zum Ausprobieren. Wie ich bereits erklärt habe, können
Sie einfach Google
Lens ausprobieren, um
Objekte zu erkennen , sodass Sie die Leistungsfähigkeit der KI
verstehen. Und ähnlich, Char GBT
Char GBT oder Gemini oder Deep C. Um Antworten auf
Ihre Fragen zu erhalten und damit eine
Art
Brainstorming durchzuführen,
und Sie können es bitten, Bilder auf der Grundlage Ihrer eigenen Empfehlungen zu erstellen Bilder Und du kannst damit Audio- und
Voice-Chat machen. Okay? Und du kannst
es zum Erstellen von Code verwenden. also diese Dinge tun, diese Dinge
erforschen, können
Sie die Macht
der KI verstehen und verstehen, wie sie verwendet wird. Was sind auch die
negativen Aspekte, okay? Weil wir nicht
immer die richtige Antwort bekommen werden. Es gibt also einige bestimmte
Einschränkungen. Es ist bekannt als Halluzination. A wird nicht immer die richtige
Antwort geben. Es halluziniert Es gibt manchmal
zufällige Antworten. Vielleicht gibt
es sogar bei einfachen Fragen irrelevante Antworten. Wir müssen
das Ding verstehen, okay? Wir sollten also nicht blindlings
die Ergebnisse der KI nutzen. Okay? Wir müssen es manuell
validieren. Okay. Uh,
das ist das Wichtigste. Als Anfänger solltest du
es wissen, oder? Und benutze generierte Bilder Dali, während der Reise, dass eine
Menge Dinge da sind, okay? Bei der Bilderzeugung können
Sie also quasi angeben, wie
das Bild aussehen soll, oder? Sagen wir zum Beispiel, wenn du ein neues Tier erschaffen
willst, kannst
du sagen, ich sollte so sein und Beine sollten so
und so sein Wenn du die Dinge beschreibst, wird das Bild automatisch
generiert, okay? also nicht nur bei Bildern Generative GNA spielt heutzutage also nicht nur bei Bildern eine
wichtige Rolle, oder? Für die Textgenerierung alles. Sie können ChargyBT bitten, zu schreiben und neben dem Schreiben von Artikeln können
Sie es auch bitten, eine solche Geschichte zu schreiben Okay. Fang einfach
damit an, okay? Sie werden verstehen, wie
es funktioniert. Und Sie können es für die
eigentliche Arbeit verwenden , auch
zum Schreiben von Programmierungen und zum Schreiben von Marketinginhalten. Okay. Sogar Sie können
PowerPoint-Präsentationen erstellen. Eigentlich habe ich diese PPT
mit Hilfe von HarGPT erstellt. Ich habe Char
GPT gerade gebeten,
eine PPT-Präsentation zu erstellen, um die A-Grundlagen zu
erläutern Dann habe ich dieses PPT bekommen. Okay. Also das sind alles fortgeschrittene
Dinge. Ich liste hier nur auf, um zu
erfahren , ob diese Dinge da
sind, okay? Aber für Anfänger ist es vielleicht nicht relevanter
, okay? Äh, es gibt verschiedene Arten
von maschinellem Lernen wie überwachtes und überwachtes Lernen
und verstärkendes Lernen, okay? Tiefes Lernen. Okay. Im Fall von überwachtem
maschinellem Lernen ist das die Weiterleitung von Spam-E-Mails weil wir sie
kennzeichnen, oder? Es ist Spam, es ist kein Spam
wie dieser, wir kennzeichnen es. Auf der Grundlage dieses
beaufsichtigten Trainings wird
es sich also benehmen, okay Ähnliches gilt für Betrugsbekämpfung, Immobilienpreisprognosen und
solche Sachen In diesem Fall beaufsichtigt, wird
es ohne unsere
ausdrückliche Kennzeichnung handeln, okay? Und noch etwas
in der Klammer,
Sie können sehen, dass die Entscheidungsbäume für die logistische
Regression,
lineare Regression, Random Forest und
SV für uns als
Clustering-Asilon dazugekommen sind, SV für uns als
Clustering-Asilon dazugekommen Das sind alles Algorithmen. Dies sind alles einige
fortgeschrittene Themen. Okay, für den Anfang versuche
ich nur, einen Überblick zu
geben AA ist also so, als
müssten wir die KI trainieren, okay?
Das ist eine Sache. Dafür benötigen wir Trainingsdaten. Okay. Und wir sollten
einen Algorithmus haben. Es gibt viele Algorithmen. Du musst einen
geeigneten Algorithmus wählen, okay? Das
versuche ich hier also zu sagen. Sie werden also überall von diesen beiden
Begriffen
maschinelles Lernen und tiefes Lernen hören . Wie ich bereits erklärt habe, dient
maschinelles Lernen also dazu, AA mit Daten zu
trainieren. Okay. Im Fall von
maschinellem Lernen funktioniert
es mit strukturierten Datentabellen
und kleinen Datensätzen Okay. Aber im Fall
von Deep Learning ist
es leistungsstark für
unstrukturierte Daten, Bilder, Text und Sprache wie diese Äh, es ist besser, wenn du es
dir so ansehen kannst. Em ist quasi das Lernen
mit einem Lehrer, okay? Der Lehrer muss den Schülern
sagen, das sind die
Merkmale dieser Art, okay? Um ein paar Konzepte zu erklären, okay? Aber im Fall von Deep Learning ist
es wie ein
selbstlernender Student , der die
Muster automatisch herausfindet. Hauptsächlich allein aufgrund des
tiefen Lernens sehen
wir bei A ein starkes Wachstum. Andernfalls müssen
wir viele menschliche Anstrengungen unternehmen, um
die Daten zu trainieren, oder? Mit der Entwicklung
von Deep Learning. Also wird alles automatisch
erledigt. Deep Learning wird das Muster
finden und sie werden dazu in der Lage sein.
A-Modelle werden in der Lage sein , diese Muster
zu verwenden, trainiert
zu werden, oder? Auf diese Weise wird es
eine Menge Zeit sparen, oder? So werden wir in der Lage sein die Modelle
mit vielen Daten zu
trainieren. Aufgrund der vielen Daten bedeuten
viele Daten also eine bessere Leistung. Auf diese Weise sehen wir im Fall von KI ein
schnelles Wachstum. Okay? Die Zukunft von EAI spielt also
fast schon eine
wichtige Rolle in der Medizin Es begann wie auf einer sehr
forschungsorientierten Basis. Aber in den kommenden Tagen wird
es
im Mainstream stattfinden, okay? Wie im Fall von Medikamenten kann
man Krankheiten finden, indem man einfach, äh, die Scans sieht, oder? Ähm, bis jetzt sagen
viele Forschungsarbeiten, dass es
sich besser
benimmt als Radiologen, wenn es darum geht , die
Krankheit zu finden Und eine weitere Sache ist, dass es Lage sein
wird, die Krankheit zu
finden,
ähm, in einem sehr frühen Stadium Obwohl es viele
Vorteile gibt,
gibt es auch einige ethische Bedenken. Das Wichtigste ist, dass
A Arbeitsplätze ersetzt. Die Leute haben Angst, dass
A ihnen ihre Jobs wegnimmt, okay? Das ist eine Sache
und tiefe Fälschungen. Eine Menge Betrugsbilder, gefälschte Bilder sind nicht nur Bilder,
Videos werden erstellt, um jemanden per EFM
zu informieren, oder? Ich kann also sagen, dass es mächtig ist, aber es entwickelt sich immer noch, okay? Es ist also besser, das zu verstehen , damit wir uns das Leben leichter
machen können. Und es ist auch so,
als würde es für unsere
Karriere zur Pflicht werden , okay?
3. Berühmte und nützliche KI-Tools: Das Video gibt einen
Überblick über einige berühmte A-Tools. Ich werde
die Tools auflisten , die
etwas mit AA zu tun haben, und nicht unter einer bestimmten Kategorie. Okay. Erster,
Open AA ist GPT vier Es handelt sich um ein Modell mit mehreren Modellen. Eigentlich
verwendet Charge GPT dieses Modell, okay? Wann immer Sie also
Fragen zu HarGPT stellen, kann Charge GBT Ihre Frage
mit diesem Modell beantworten Okay? Ähnlich wie bei HarGPT, wenn Sie
Ihre eigene Anwendung entwickeln möchten, können
Sie dieses Modell
über Open as APA verwenden Sie müssen also einen APA-Zugang kaufen. Also jede Anfrage und Antwort, die auf der Grundlage der Tokens
berechnet wird. Token in dem Sinne, es ist die Anzahl der Zeichen, okay? Sie können also ganz einfach mit der
Erstellung einer Anwendung beginnen, etwas Ähnliches wie das Aufladen von
GPT mit diesem Modell, okay? Es dient der Sprachgenerierung, Sat-Bots, der Erstellung von Inhalten
und der Textanalyse Es ist also derzeit ein sehr berühmtes
Programm, fast die meisten
Leute versuchen, Anwendungen
mit VT Four zu erstellen, okay? TensorFlow ist ein Framework für
maschinelles Lernen. Es wird von Google bereitgestellt, okay? Es wird nützlich sein, um Modelle für
maschinelles Lernen
für alle Arten von A-Anwendungen zu
erstellen, zu trainieren und bereitzustellen . Sie haben vielleicht von KRAS APA
gehört, oder? Mit KRAS APA können
Sie also einfach von vielen Sprachen aus auf diese Dinge zugreifen ,
einschließlich Python, okay? Und eine weitere wichtige
Sache Tensor Flow ist vor allem, dass die Tensorflow-Beispielcodierung in Notizbüchern geschrieben
ist Sie können diese
Notizbücher also einfach auf Google Colab ausführen. also ohne
jegliche Einrichtung sofort damit beginnen, Sie können also ohne
jegliche Einrichtung sofort damit beginnen,
diese Tensorflow-Codierung in
einem Browser selbst oder im Webbrowser selbst zu verwenden diese Tensorflow-Codierung in
einem Browser selbst oder im Webbrowser selbst Es ist also eine sehr einfache Art maschinelles Lernen
zu lernen Als Anfänger können Sie anfangen, TensorFlow zu
verwenden, okay? Und ähnlich wie Tensor Flow ist
Pitu auch ein Framework, ein Framework, es ist
ein Deep-Learning-Framework Okay? Es wird
von Meta bereitgestellt, okay? Es wird in der AA-Forschung,
Computer Vision, NLP und
Reinforcement-Learning Wir können es lokal installieren, oder Sie können es auch auf einer
Cloud-Plattform verwenden, okay? Und in der Umarmungsphase ist
es eine NLP-Bibliothek mit NLP steht für Natural Language Processing. Also hauptsächlich NLP-bezogene Anwendungen,
es wird nützlicher sein. Und Sie können viele Arten
von Modellen auf ihrer
Website finden , okay? Nur wenn Sie
eine Anwendung mit
NLB-Anforderungen entwickeln möchten eine Anwendung mit
NLB-Anforderungen Du kannst das Modell einfach von
dort holen und du kannst es benutzen, okay? Es bietet vortrainierte
Modelle für Textgenerierung, Stimmungsanalyse
und Arbeit, okay? Stimmungsanalyse, gewissermaßen, wenn Sie die
Twitter-Inhalte zum Beispiel in dieses Modell einfließen lassen, wird
es sagen, ob es positiv oder negativ
ist, solche Dinge
, vielleicht Kundenrezensionen Das wird also in
vielen Anwendungen,
einschließlich E-Commerce, sehr nützlich sein, okay? Und der nächste ist Google Cloud A. Es ist ein Cloud-basierter
A-Dienstleister, okay? Es wird
für die Bildanalyse,
Textanalyse,
Übersetzung und mehr nützlich sein . Okay? Ähnlich wie Google, äh, bietet
Amazon auch eine Cloud-basierte Plattform für
maschinelles Lernen an. Es heißt AWS
Sig Maker, okay? Es ist ein vollständig verwalteter Service zum
Erstellen, Trainieren und Bereitstellen von Modellen für
maschinelles Lernen, okay? Und in ähnlicher Weise, äh, bietet Microsoft auch ein
auf einer Handlung basierendes A-Framework an, okay? Ähm, es heißt Azure AA. Es bietet Tools für Computer, NLP, Spracherkennung
und A-Integration Es ist nützlicher,
falls Sie bereits das
Microsoft-Ökosystem verwenden, z. B. Office 365. Okay? Und Di ist
auch von Open AI. Aber es ist speziell für die Bildgenerierung
aus Textproms gedacht Okay? Sie können einzigartige Bilder
auf der Grundlage von Textbeschreibungen erstellen. Viele Websites verwenden
diesen Dali. Fast alle von ihnen sind
sehr inspirierend, okay? Ebenso können
Sie bildbasierte Anwendungen entwickeln, wenn Sie
jegliche Art von kreativen
Anwendungen entwickeln möchten. Du kannst Dali benutzen,
okay? IBM Watson Es ist für Geschäftslösungen, KI
Power-Geschäftslösungen, okay. Es bietet AA-Tools
für Datenanalyse, Kundeneinblicke und NLP Fast alle Unternehmen
bieten,
äh, diese Art von
KI-Diensten an, oder? Wie Amazon, Google, okay? In ähnlicher Weise hat IBM auch Folgendes bereitgestellt. Microsoft stellt EA
auch zur Verfügung, oder? Runway, es ist, als ob es kreative
A-Tools
für die Video- und
Bildbearbeitung bietet , okay Designer, diese Art von
Medienschaffenden können das also nutzen. Okay? Es ist nützlich für die Übertragung von Videobearbeitungsstilen
und kreatives Design, okay? Chroma DB, es ist Vektor-DatabSF, das Einbettungen speichert und
erforscht Äh, Vektordatenbank
in dem Sinne, dass sie den Inhalt
im Einbettungsformat speichert dass sie den Inhalt
im Einbettungsformat speichert.
Es ist mathematisch Es ist eine Art Matrix-Inhalt, okay? Mehrdimensionale Zahlen. Okay. Es wird also sehr
nützlich bei erweiterten Generierung von
Ag wie Retrieval Für diese Art
von A-Anwendungen müssen
wir also eine
Art Vektordatenbank verwenden ChromoTV wird also sehr nützlich sein , weil es ein sehr
einfaches Open-Source-Programm Wir können es in unserem Lokal verwenden, also Chromodov ist es
aus dieser Perspektive wichtig Perspektive eines Stoffes.
Und die Lang Chain ist ein Framework für die Entwicklung von
Anwendungen mit LLMs, wie LLM sieht, wie GPT 4, dass solche Dinge als große
Sprachmodelle
bekannt sind als große
Sprachmodelle
bekannt Es ist also, wie ich
bereits sagte, Chroma DV
ähnlich Dieses Framework ist auch nützlich für die
RA-Implementierung von Rag, okay? Also nicht nur für Rag,
für jede Art von ALM oder ich kann sagen, dass generative
GA-Anwendungen, ein Lang-Chin-Framework sehr einfach sein
wird. Es ist so, als würde es Ihnen Arbeit erleichtern, indem es viele
Funktionen
bereitstellt , wie zum
Beispiel, dass
Ihr Code sehr
minimal sein wird , falls Sie diesen Link im Framework verwenden. Okay? Zum Beispiel habe ich zuvor über die
Chroma-DB-Vektordatenbank gesprochen, oder? Wenn Sie also ein auf
Chromo DB basierendes Rag-System erstellt haben, Fall, dass Ihre Chroma-DB nicht
in der Lage
ist, all Ihre Daten zu
verarbeiten, und wenn Sie eine
andere Vektordatenbank verwenden möchten, große Vektordatenbank. In diesem Fall müssen Sie den Code komplett
neu schreiben, wenn
Sie den Code
manuell erstellt haben Anstatt Chroma DV zu verwenden, mussten
Sie, ähm, den Code für eine andere
Datenbank, Vektordatenbank,
erstellen , okay? Das wird
viel Zeit und Mühe kosten, oder? Bei Frameworks wie
Lang Chin ist das sehr einfach. Abgesehen von Lang Chin gibt es auch noch
andere Frameworks
, einen Index wie diesen, okay? Es ist also ein Framework für die
Erstellung von Lam-Anwendungen, okay? Und Tannenzapfen. Ähnlich wie Chroma TV ist
Pinecone auch ein Vektor-Bauchmuskel, aber es ist ein von
Davis gehostetes Ding, okay? Es ist also leistungsfähiger
als Chroma TV,
aber wie Sie sehen, müssen wir dafür bezahlen Angenommen, unsere Nutzung
überschreitet bestimmte Beschränkungen. Dann müssen wir es bezahlen, weil
es Cloud-basiert ist, oder? Aber im Fall von ChromaTV ist
es eine Open-Source-Sache. Also können wir es auch einfach auf
unseren eigenen Computer herunterladen , okay? Es ist also auch nützlich für die
Implementierung von AG-Anwendungen. Rag, in dem Sinne,
es beinhaltet semantische Suche,
Ähnlichkeitssuche, okay? Also T mit A-Integration. Es gibt also viele Daten und
Tools, oder? Also kein solches Tool gibt
es, es ist mit
A-Fähigkeiten ausgestattet, okay? Es integriert A für prädiktive Analysen
und Dateneinblicke AutoML von Google Cloud. Für Benutzer mit
minimalen ML-Kenntnissen
ist es sehr nützlich, benutzerdefinierte Modelle zu
trainieren Okay? Es wird die Arbeit durch automatische
Modellentwicklung für
maschinelles Lernen
erleichtern , okay?
4. Eingabeaufforderung: In diesem Video werde
ich etwas über
Prompt Engineering erklären. Zuallererst, was ist
Prompt Engineering? Warum müssen wir etwas
über Prompt Engineering lernen? Wir können sagen, dass
Prompt Engineering
die Methode ist , die Prompts,
also Eingaben für LLMs,
große Sprachmodelle wie
Char GPT und Deutschland, effektiv zu gestalten, sodass wir den
gewünschten Output-Datensatz ausgeben können Mit anderen Worten, wir können sagen,
es ist die Fähigkeit, die LLMs effektiv zu nutzen Ich kann Prompt Engineering sowohl
als Kunst als auch als
Wissenschaft betrachten , weil
wir bestimmte
Strategien,
Taktiken und Tipps befolgen müssen, um es effektiv zu
nutzen Und gleichzeitig
müssen wir viel Erfahrung sammeln. Wir müssen
viel Erfahrung sammeln, indem verschiedene Eingabeaufforderungen
untersuchen, um unsere Aufforderungsfähigkeiten zu verbessern Heutzutage wird es immer wichtiger, über
gute Sprachaufforderungsfähigkeiten zu verfügen .
Dafür gibt es zwei Gründe Einer ist SAGBTLDGGermany. Sie spielen eine
Schlüsselrolle in unserem Leben. Jeder verwendet
es täglich zum Erstellen von Artikeln, zum Erstellen von Bildern und
sogar zum Schreiben von Code. Daher ist es wichtig, mit
Prompt Engineering vertraut zu sein. Ein weiterer Grund ist
, dass die A-Entwickler für die Entwicklung von AA-Tools mit
Prompt-Engineering vertraut sein müssen, mit
Prompt-Engineering vertraut sein müssen damit sie die LLMs effektiv
nutzen können, indem sie die Eingabeaufforderungen auf
der Grundlage
ihrer Anwendungsanforderungen vorbereiten auf
der Grundlage
ihrer Anwendungsanforderungen da die LLMs im Vergleich zu
unseren individuellen
Modellen leistungsfähiger sind im Vergleich zu
unseren individuellen
Modellen leistungsfähiger werden mit
einer Vielzahl von Daten trainiert und verfügen über eine
enorme Rechenleistung Daher ist es besser,
über die API auf sie zuzugreifen , um
unsere eigenen A-Anwendungen zu erstellen. In diesem Fall müssen
wir uns meistens mit vielen Eingabeaufforderungen auseinandersetzen Okay, wenn dir immer noch nicht
klar ist, was Prompt bedeutet, erkläre ich
das
besser auf einfache Weise, okay? Das ist Chat-GPT. Dieses AD-Tool verwendet intern
das Y LAM GPT Four, okay? wir hier also
Fragen stellen, wenn Sie
hier etwas eingeben, wird
es an das LLM GPT
Four weitergeleitet oder Sie erhalten Also im Grunde genommen wird das
als schnell angesehen, oder? Was ergibt eins plus zwei? Das, was eins plus
zwei ist, wird als Eingabeaufforderung bezeichnet. Wir können dieselbe Frage auch
auf andere Weise stellen, oder? Addieren Sie eins und zwei, richtig? Oder du kannst einfach eins plus zwei
sagen. In allen drei Fällen haben wir das gleiche Ergebnis erzielt. Aber Prompt ist anders, oder? Hier ist die Aufforderung, was eins plus hier die Aufforderung eins und zwei
hinzuzufügen, hier die Eingabeaufforderungen
eins plus zwei, Diese Art von Aufforderung zu formulieren wird als
Prompt-Engineering betrachtet Sagen wir zum Beispiel, ich
sage das nur als einfaches Beispiel. Anstatt
Zeit damit zu verbringen, auf diese Weise zu schreiben
, wird es viel Zeit
sparen,
wenn Sie in der Lage sind , auf diese Weise zu schreiben. Okay? Also jetzt ist es klar, oder? Es ist schnell. Was ist eins plus zwei,
addiere eins und zwei, eins plus zwei oder Eingabeaufforderungen Die Art und Weise, wie
diese Fähigkeit oder dieses Wissen vorbereitet wird,
die Fähigkeit, auf diese Weise etwas zu erstellen wird als Prompt bezeichnet. Im Grunde ist
das schnelle Engineering nützlich, um Qualität,
Relevanz und Genauigkeit zu verbessern Es ist nützlich bei der Codierung von
Chatbd-Inhalten Wie ich erklärt habe,
steuert es das Verhalten
und die Ausgabequalität von AA also qualitativ hochwertige Ergebnisse zu erzielen, Um also qualitativ hochwertige Ergebnisse zu erzielen, müssen
wir unsere
Fähigkeiten bei der Eingabe von Eingabeaufforderungen verbessern Das reduziert Unklarheiten
und verbessert die Klarheit. Wenn also unsere Pumpen sauber sind,
dann sind auch die Ausgangswerte klar dann sind auch die Ausgangswerte Es hilft, TuneA für
bestimmte Anwendungsfälle zu finden, was für Automatisierung
und Effizienz
unerlässlich Lass mich sie anhand
der Beispiele erklären, okay? Bestandteile einer guten Aufforderung. Okay? Jetzt ist es klar, richtige Eingabeaufforderungen bedeuten, dass wir den
Eingabetext an die LLMs senden Das kann aus Benutzersicht geschehen, es kann eine einfache
Frage sein, die auf
kostenpflichtiger GPT eingegeben wurde , oder aus Sicht des
Anwendungsentwicklers,
es ist die Aufforderung, die wir in unserer Codierung für den
Versand an die LLMs
über APA vorbereiten Versand an die LLMs
über Zunächst geht es also um Klarheit. Klarheit, das ist eine
sehr offensichtliche Sache. Wann immer wir also nach einem Zaubertrank fragen, sollte
er sehr
spezifisch und präzise Beides müssen wir beachten. Es sollte sehr spezifisch sein. Es sollte keine
zufällige Sache wie ähm sein, es sollte eine sehr
allgemeine Sache sein, okay? Wir müssen spezifische
Fragen stellen, okay? Lassen Sie mich viele Beispiele zeigen. Selbst im offenen A bieten
sie eine Menge Beispiele. Aber es ist sehr
offensichtlich, oder? Es sollte sehr spezifisch sein. Anstatt zu fragen
, schreib ein Gedicht. Du kannst fragen, wie ein
Gedicht über den Mond, oder? Oder du kannst ein Gedicht fragen, ein Gedicht
schreiben, in dem
Glück auf diese Weise hervorgehoben wird. Und Kontext. Und Sie müssen auch die
Hintergrundinformationen bereitstellen. Das Gleiche. Ich
schreibe ein Gedicht auf dem Mond. Sie können den Grund angeben, warum Sie
sich dieses Gedicht ausgedacht haben. Ich habe vor, dieses Gedicht in
meinem Blogbeitrag oder so
für was auch immer zu verwenden . Wenn Sie also einen Kontext angeben, der auf diesem Kontext
basiert, können Sie die Ausgabe
fein abstimmen, okay? Oder du kannst sagen, dass es
für einen Wettbewerb wie diesen ist , okay? Und der dritte ist konstant. Wir müssen die Grenzen definieren. In den Eingabeaufforderungen
müssen wir die Grenzwerte definieren, wie z. B. die Anzahl der schlechten Kots
und das Tonformat Wenn
Sie beispielsweise Artikel schreiben, können
Sie sagen, dass Sie
einen Artikel über allgemeine Grundeinkommen in 20 Zeilen oder in 200
Wörtern wie diesem Und was den Ton angeht, kannst
du sagen, dass du ihn
in einem formellen Ton oder auf
persönliche Art oder auf eine lustige
Art und Weise schreibst , oder? Und das Format, egal ob
du es im Excel-Format oder im CSE-Format oder in
einer Tabelle haben willst, okay? Wenn
Sie zum Beispiel den
Unterschied zwischen
maschinellem Lernen
und Deplanung
unterscheiden möchten den
Unterschied zwischen
maschinellem Lernen
und Deplanung
unterscheiden , können
Sie sich davon überzeugen, ob Sie
die Ergebnisse in einer
Vergleichstabelle wie dieser benötigen , okay? Und Beispiele, das ist eine
sehr wichtige Sache, okay? Wir müssen Beispielergebnisse als
Orientierungshilfe bereitstellen. Nur dann wird es wirksam sein. Es heißt bei Start Learning und du fängst an zu
lernen, wähle das aus. Okay? Vielleicht kann ich es später im Detail
erklären. Rollenzuweisung. Wir können das YlM bitten, Ihre besondere Rolle zu übernehmen. Wenn du dir zum Beispiel Gedichte besorgen
willst, kannst du
zuerst sagen, dass
du ein großartiger Dichter Vielleicht kannst du einige Leute so empfehlen, du kannst den Har
GBT oder irgendeine Art von LLM bitten , als eine bestimmte Person, in einem
bestimmten Raum aufzutreten, Wenn du sagen kannst, dass du
als Lehrer auftrittst und diese Anleitungen
für solche Schüler vorbereitest, okay? Arten von Eingabeaufforderungen.
Offene Proms, befehlsbasierte Proms, rollenbasierte Proms, vergleichende Proms, statistische
Proms Offene Prompts sind wie offene Fragen. Diskutieren Sie so über
den Klimawandel. Es kann alles schreiben. Und lass dir irgendeinen Inhalt einfallen. Bei
anweisungsbasierten Eingabeaufforderungen können
Sie spezifische
Details angeben, z. B. müssen Sie diesen Artikel auf
diese spezielle Weise
mit diesem TC
schreiben , oder? Bei dieser Art von
anweisungsbasierten Eingabeaufforderungen können
wir, wie ich bereits erklärt habe, wie ich bereits erklärt habe, Char GPT oder LLM bitten, eine bestimmte Rolle
zu übernehmen. Und dann können wir auf
ähnliche Weise Schritt für Schritt Fragen stellen ähnliche Weise Schritt für Schritt Man nennt es auch eine
Gedankenkette. Es ist eine sehr wichtige Sache. Wir müssen Har GPT oder einen
anderen LLM bitten , die Antwort
Schritt für Schritt vorzubereiten Es ist vielleicht in jeder Art von Sache
so, wenn Sie eine
Antwort auf eine Frage haben wollen, stellen Sie
einfach eine Frage
und fügen Sie sie dann hinzu,
tun Sie es Schritt für einfach eine Frage
und fügen Sie sie dann hinzu, Schritt,
als ob es eine sehr wichtige Sache ist Andernfalls wird meistens das
Halisnal-Problem auftreten. Selbst bei einfachen Fragen erhalten
wir möglicherweise falsche Wenn wir jedoch ausdrücklich darum bitten , die Verarbeitung
Schritt für Schritt durchzuführen, können
wir ein solides,
korrektes Ergebnis erzielen. Das ist sehr wichtig. Es wird Chain-Up-Thoughts
genannt. Sie haben das vielleicht gehört.
Bevor wir Proms
und Prompt Engineering verstehen, müssen
wir die
inhärenten Probleme mit LLM verstehen Diese Halluzination ist
sehr, sehr wichtig. Vor allem, um damit fertig zu werden, wird
es nützlich sein, Schritt für
Schritt Proms Okay. Obwohl die
LLMs sehr mächtig sind und in der Lage sind, Antworten auf
sehr effektive Weise zu geben, sind
diese Antworten nicht korrekt Sie sind nicht zuverlässig. Sie haben immer ein paar
falsche Antworten gegeben, okay? Wenn du nach Referenzen fragst, gibt
es zufällige
Links oder so, okay? Wir müssen also bei der Analyse
der Ergebnisse sehr vorsichtig sein. Gleichzeitig müssen
wir die Strategien verfolgen
, um
etwas bessere Ergebnisse zu erzielen. Eine wichtige Strategie
ist , Schritt für Schritt vorzugehen.
Melde das an, okay? Und wir geben Beispiele
und geben Referenzmaterial. Okay. All diese Dinge werden die LLMs dazu bringen, richtig zu handeln Wenn wir nicht anleiten,
wenn Sie
einfach die Frage stellen
und eine Antwort erwarten, wird
es keine
richtige Antwort geben Okay? Also müssen wir es
richtig lenken. Beispiel-Eingabeaufforderungen. Schwache Eingabeaufforderung ist, über EA zu schreiben. Es ist sehr generisch. Wir
müssen spezifisch sein. Schreiben Sie also einen Artikel mit 200 Wörtern,
0N EA im Gesundheitswesen. Sie sorgten für die Einschränkungen,
okay, die Konstante, und ähm, sie sorgten für die erste
Schwäche, die Gesundheitsversorgung Okay? Also hier
ist es am besten, als medizinischer Forscher Wirkung auf das
Gesundheitswesen in 200 Worten zu
erklären. Hier, das auf Regeln basiert,
bitten wir es, als
medizinisches Forscherteam zu agieren, oder? Dieser Teil ist da,
und wir stellen ersten Woche Fragen
wie Auswirkungen auf Gesundheitswesen in 200 Wörtern.
Diese Einschränkung ist da. Es ist also die beste Aufforderung, okay? Also nur um
die grundlegenden Dinge über
Prompt Engineering zu lernen und
dann zu versuchen, Prompts in Ihrem
täglichen Leben zu implementieren, okay? Anstatt
über KI zu schreiben, sind wir zwei Autoren, als medizinische Forscher erklären: Als Auswirkung auf das Gesundheitswesen und zwei Unrevers.
Es ist nur ein Beispiel Angenommen, Sie planen, einen Blogbeitrag aus
technischer Sicht zu schreiben, vielleicht können Sie das
als guter Blogautor sagen. Erläutern Sie die Auswirkungen auf Gesundheitswesen in 200 Worten.
So kannst du fragen. Es basiert also auf unseren Empfehlungen.
Das ist es, was ich meine. Basierend auf unseren Empfehlungen
können wir, wenn wir in
der Lage sind,
das LLM richtig einzusetzen , diese Fähigkeit
als technische Fähigkeit betrachten . Das ultimative Ziel ist es
, das LLM effektiv zu nutzen, um das gewünschte Ergebnis zu erzielen Es gibt viele schnelle technische
Techniken. Eins ist Null kurze Aufforderungen,
wenige kurze Aufforderungen, Verkettung der Eingabeaufforderungen,
mehrere zehn Eingabeaufforderungen, mehrere zehn Eingabeaufforderungen Zero SAT bedeutet,
sofort eine
Frage zu stellen und eine Antwort zu erhalten, ohne Wenige Eingabeaufforderungen so, als müssten wir einige Beispiele
angeben Angenommen, Sie planen, die Ausgabe
in einem bestimmten
Format zu formatieren, können
Sie die
wenigen Beispielausgaben bereitstellen In diesem Fall spricht man von
Few Shot Prompting. Okay. Dann
verkette die Aufforderung. Wie gesagt, wir
müssen den LLM bitten , die
Berechnungen Schritt für Schritt durchzuführen Und mehrere Eingabeaufforderungen. Also mehrere Tonnen von Eingabeaufforderungen, es ist nichts anderes, als interaktiv mit dem LLM
zu interagieren Wir müssen ständig damit
sprechen, anstatt eine Frage
zu stellen und
dann eine Antwort zu bekommen Stattdessen können
wir uns kontinuierlich mit
etwas Aufzeichnendem,
gemeinsamen Herausforderungen und
Lösungen, zweideutigen Ergebnissen
auseinandersetzen gemeinsamen Herausforderungen und
Lösungen, zweideutigen Ergebnissen In diesem Fall müssen
wir natürlich die Aufforderungen verhindern Wir mussten die
Eingabeaufforderungen dort verbessern. Irrelevante Antworten. In diesem Fall mussten
wir, wie gesagt, die wenigen kurzen Lernschritte nutzen, diese Art von Aufforderung, okay? Wir müssen Beispiele angeben, damit es
für die Ausrichtung der L-Lampen nützlich Halluzination wird benutzt.
Okay. In diesem Fall müssen
wir also die
Ausgabe mit anderen Quellen überprüfen. Vertraue dem A-Ausgang also immer nicht. Wir müssen auch
die anderen Quellen manuell überprüfen. Für den Fall, dass es sich um
lange oder kurze Antworten handelt, müssen wir
natürlich
die spezifische Wortbegrenzung angeben In diesem Fall folgen Sie dem. Es gibt also viele Anwendungen für die Erstellung von Inhalten, Programmierassistenten und die Schulung des
Kundensupports. Also fast in jedem Bereich schnelle technische Fähigkeiten wirklich
wichtig. Wir können das
mit dem Diagramm GPT üben, oder Sie können OpenAS
APA verwenden , um dieses
GPT für LLM zu verwenden Aber im Fall von APA werden
Sie zusätzliche Optionen haben Normalerweise haben
wir in der GPT-Grafik also zwei Dinge, oder? Das eine ist das GPT-Diagramm, das eine Antwort gibt Ein anderes Beispiel ist, dass
wir als Benutzer, ähm, eine Frage stellen Es gibt zwei
Regelassistenten, die den
GBT-Assistenten und dann den Benutzer,
uns selbst als Benutzer und Assistent berechnen GBT-Assistenten und dann den Benutzer, uns selbst als Benutzer und Aber im Falle eines APA-Zugriffs haben
wir drei Optionen, drei Regeln: System, Benutzer
und Assistent, okay? In diesem Fall werden
wir also
mehr Flexibilität haben , was in der Regel gilt, andere Dinge können wir dem System selbst
widmen. Vielleicht erkläre ich die
Einzelheiten anhand eines Beispiels. Offensichtlich, Deutschland, Deutschland,
das Ultimative ist , dass
wir uns umgehend
schriftlich sehr klar ausdrücken müssen.
Es ist spezifisch. Wir müssen mit
verschiedenen Stilen experimentieren , weil sie
sich dynamisch ändern. Was auch immer
Sie sich in diesem Monat als Sprachaufforderung aneignen,
sie werden in
den zwei, drei Minuten
später zu diesem Zeitpunkt nicht mehr anwendbar sein den zwei, drei Minuten
später zu diesem Zeitpunkt Okay, ich erzähle
dir nur subtile Dinge, aber die wichtigsten Dinge sind immer so, wenn du die Website von
Open A durchgehst,
sie listeten sechs Strategien Diese sechs Strategien, sogar im letzten Jahr,
boten sie dasselbe. Die Kernkonzepte
werden also größtenteils dieselben bleiben, aber die subtilen Dinge
werden sich ändern. Das müssen wir lernen. Das ist es, was alle
sagen, dass schnelles Ingenieurwesen
sowohl Kunst als auch Wissenschaft ist. Wir müssen die
grundlegenden Regeln und Strategien verstehen. Dann müssen wir
unsere Fähigkeiten verbessern, weil sie sich persönlich von Person
zu Person verändern. Wir müssen also über die Fortschritte
bei A auf dem Laufenden bleiben. Okay. Lassen Sie mich ein Beispiel zeigen. Im Fall der Generierung von Daumenbildern kann
ich zum Beispiel nach einem Kurs
fragen, den ich auf Video auf YouTube erstellt habe Okay. Dann kann
ich in diesem Fall sagen, dass ein Vorschaubild erstellt Okay. Ein Eqs Es ist nicht sehr spezifisch, oder? Es kann also das
Bild auf jede Art und Weise erstellen. Okay? Aber mein Ziel ist, dass ich das Vorschaubild
für mein UT-Video erstellen muss das Vorschaubild
für mein UT-Video erstellen Hier stimmt das
Seitenverhältnis. Aber im Fall von UT-Video sollte
das Seitenverhältnis 16 mal neun sein, oder? In diesem Fall ist es besser, die Aspekte zu spezifizieren. Oder zumindest müssen wir den Kontext
für unser Video
bereitstellen , ein
YouTube-Video wie dieses. Aber aufgrund meiner
persönlichen Erfahrung sage ich, dass es immer
die Regeln
gibt, es gibt keine festen Regeln, okay? Als beste Strategie können
wir den Kontext absichern Aber in manchen Fällen
ist das nicht nötig. Meiner persönlichen Erfahrung nach wird
meistens nicht berücksichtigt, dass, obwohl ich
ausdrücklich sage , dass es für mein YouTube-Video
ist, es immer noch nur
das quadratische Bild generiert hat. Also habe ich
das Seitenverhältnis
mit dem Seitenverhältnis angegeben . Jetzt wurde es
mit einem Seitenverhältnis von
16 mal neun erstellt, sodass ich
es für mein YouTube-Video verwenden kann Okay. Abgesehen davon können
wir Ihnen weitere Informationen geben, welche Farbe
Sie haben sollten. Sie befolgen
die Anweisungen jedoch nicht immer richtig. Wir müssen also viele
Versuche und Irrtümer durchführen. Okay. Falls Sie
nur wenig lernen müssen, können Sie
vielleicht ein
paar Beispielbilder zur Verfügung stellen und dann D GBT
bitten, ein ähnliches
Bild wie dieses zu erstellen, okay? Oder im Falle einer Formatierung können
wir es bitten, eine bestimmte Sache zu formatieren
, z. B. über
maschinelles Lernen im Vergleich zu Deep Learning zu schreiben Wir können sagen, das formatiere es in einer Tabelle. Also hier werden
die Unterschiede in einem
Tabellenformat geschrieben , okay? Andernfalls, wenn du es
in der
Art eines Blogposts haben willst , kannst
du es bitten, es als Artikel
in etwa 500 Wörtern
zu
schreiben , was auch immer. Und wie gesagt, wir können auch
spezielle Muster zur Verfügung stellen. Wenn Sie zum Beispiel annehmen
möchten,
ob Sie nach einem
Laptop oder Computer zum Kauf suchen, können
Sie ihn bitten, mir
drei Laptops für
meine Videoerstellung zu
empfehlen . Und Sie können ihn bitten, das Format
anzugeben. Neben der Angabe von Einzelheiten
können wir auch einige Beispiele nennen. Zum einen können Sie dem
Laptop einfach so einen Namen geben,
Sie können die Bezeichnung RAM Hard Disk Display DPU
so geben, Sie können fragen, okay? Es ist Format. Falls
Sie nur wenig lernen möchten, können
wir Ihnen einige Beispiele zur Verfügung stellen. Es gibt die Details, oder? RAM-Speicherdisplay,
CPU wie diese, richtig? Ansonsten können
wir, wie gesagt, die Proben geben. Und Sie können Trennzeichen verwenden. Dass wir zwischen
der eigentlichen Aufforderung und einer solchen
Stichprobe
unterscheiden können der eigentlichen Aufforderung und einer solchen
Stichprobe Wir können irgendein Markup oder
so einen Stern verwenden, oder? So können wir Formate
wie Markenname, RAM, Preis angeben. Okay. Ich empfehle ein
bestimmtes Format, okay? Aber ich habe das Display nicht
spezifiziert. Es enthielt auch ein Display, aufgrund meiner vorherigen Version wird
dieser Effekt da sein. Dass ich
darüber sprechen werde, okay? Das ist Kontextgeschichte, okay? Es bleibt die Geschichte des
Wettbewerbs. Angenommen, Sie möchten den Kontext-Verlauf
löschen, indem Sie ein neues Diagramm erstellen. Ich nehme an, Ihre Frage ist völlig unabhängig
von Ihrer vorherigen Frage. Um ein neues Diagramm zu starten. Und noch etwas
gibt es, das ist Erinnerung. Also unter all Ihren Chats
in Staaten,
sagen wir , eine Woche zuvor, haben
Sie vielleicht ein
paar Fragen gestellt, okay? Aber trotzdem wird es sich an
diese Details erinnern, okay? Selbst wenn Sie das neue Diagramm starten, wenn es im Speicher gespeichert ist, speichert
es nicht alles, sondern
nur wenige Dinge, okay? Aber die Geschichte des Kontextes
ist anders. Wenn es sich im
selben Diagrammfenster befindet, erinnert
es sich an
die alten Fragen. Es wird sich voll und ganz erinnern. Okay, das ist Kontextgeschichte. Aber im Fall dieses Speichers wird
das selektiv wichtige wichtige
Details im Speicher
speichern, okay? Also, wenn du diese Option
haben willst, kannst
du sie hier behalten,
Einstellungen, okay? Wenn Sie es also aktivieren, merkt
es sich
Ihre wichtigsten Daten. Okay? Sie können auf Erinnerungen
verwalten klicken, und wenn Sie dann einige
Details
selektiv entfernen möchten , können Sie sie entfernen, okay? Diese Speicherdetails werden bei
verschiedenen Kartenanbietern
verfügbar sein verschiedenen Kartenanbietern
verfügbar Okay. Und abgesehen davon können
Sie das Diagramm GBT anpassen Ich
spreche nur von Chart GBT. Das schnelle Engineering ist für jede Art von LLM
üblich. Uh, sogar für diese Gebühr GBT, mit GPT vier Also, wenn Sie es von der Anwendung über die API verwenden, ist
das ein anderer Fall Falls Sie jedoch eine
GBT-Schnittstelle verwenden, können
Sie die benutzerdefinierten Anweisungen verwenden,
z. B. wenn können
Sie die benutzerdefinierten Anweisungen ich Tamil und Englisch kenne In diesem Fall
können Sie sofort
darum bitten, dies in etwas zu übersetzen Ich kann verstehen, dass ich
Tamil und Englisch spreche. Nehmen wir an, auch wenn ich
aufgrund des Kontextes
nicht ausdrücklich Tamilisch oder Englisch
sage Tamilisch oder Englisch
sage,
werden Sie das verstehen, okay? Und hier kannst du
einsehen, dass es professionell oder
lustig
sein sollte professionell oder
lustig
sein Darauf aufbauend
wird es Antworten geben. Wenn Sie mit
solchen grundlegenden Dingen vertraut sind, können
Sie
Chart GPT oder jede
Art von LLM-Tools effektiv verwenden Chart GPT oder jede
Art von LLM-Tools Und als Entwickler können
Sie Ihre Anwendung effektiv
erstellen In der Open AI
haben sie also viele Strategien bereitgestellt. Sie stellten sechs Strategien
zur Verfügung, um bessere Ergebnisse zu erzielen, und sie lieferten
eine Menge Taktiken. Okay? Also fast alles, was wir hier erklären, haben sie ausführlich
zur Verfügung gestellt. Lassen Sie uns zunächst alle
sechs Strategien
durchgehen, okay? Schreiben Sie klare Anweisungen,
es ist offensichtlich, dass wir bereits besprochen haben, Referenztext
bereitstellen und komplexe Aufgaben in
ähnliche Unteraufgaben aufteilen und
dem Modell Zeit zum Nachdenken geben ,
externe Tools verwenden . Das
ändert sich systematisch. Für jede Strategie
stellten sie eine Liste mit Taktiken zur Verfügung
und gingen diese auch durch. Im Falle einer richtigen,
klaren Anweisung können wir diese
Taktiken befolgen und
Details in Ihre Anfrage aufnehmen , um mehr Elementantworten zu
erhalten Sie lieferten einige Beispiele. Wie füge ich Zahlen in Excel hinzu. Anstatt so zu fragen, können
wir bestimmte
Dinge fragen, richtig. Wie addiert man eine Reihe von
Dollarbeträgen in Excel? Ich möchte dies automatisch
für eine ganze Tabelle mit Profis tun , wobei alle Summen in
der Spalte Summe landen Also müssen wir
die spezifischen Details angeben. Anstatt nur zu fragen
, wer Präsident ist, können
wir fragen, wer 2021 der
Präsident von Mexiko ist. Anstatt blindlings nach dem Schreiben von Code
zu fragen, können
wir nach dem Schreiben einer
Type-Geheimfunktion Es ist also so, als würde man
spezifische Details angeben, okay? Und die nächste Taktik besteht darin, als Modell Ihre
Persönlichkeit anzunehmen, ihre Rolle als, richtig Also, wie ich schon sagte, die DAPA hat diese
Systemoption Als Entwickler können
wir diese Gelegenheit nutzen Also das habe ich
Trennzeichen erklärt, richtig? Wir müssen
die Trennzeichen effektiv verwenden , um
zwischen den Stichproben
o und dem Befehl zu unterscheiden o Falls Sie
über zwei Dinge sprechen, können Sie
vielleicht dieses Format finden Also der Limiter. Ich muss kein
normales Ding sein. Sie können
basierend auf Ihrem Kontext dynamisch erstellen. Als Nächstes sehen Sie, wie die Schritte
aufgezeichnet werden, um Ihre Aufgabe abzuschließen. Sie müssen
Zwischenschritte
wie einen ersten und zweiten Schritt angeben . Es kann sich um eine einzelne Kette von Aufgaben handeln. Immer wenn wir den YL-Alaun bitten, einem bestimmten Pfad
zu
folgen, ist die Ausgabe einigermaßen
zuverlässig Das ist meine Beobachtung. Wenn Daten nach dem Endergebnis fragen, wird das nicht viel nützen. Die nächste Taktik besteht darin, Beispiele
zu liefern. Die spezifische
Länge der Ausgabe. Wir können das also auf
etwa 50 Wörter in Absätze und
drei Stichpunkte beschränken . Geben Sie also für die nächste Strategie einen Referenztext an. Die Taktik besteht darin,
das Modell anzuweisen , den
Quelltext zu beenden. Wir müssen also eine Referenz angeben
, und dann können wir die
Frage stellen Okay? Also das ist eine wichtige Sache, Kontextfenster, begrenztes
Kontextfenster, okay? Wir können den
Referenztext nicht hören. Nehmen wir an, es handelt sich um einen Artikel mit
100 Seiten, wir können nicht alle
hundert Seiten hier unterbringen. Also
haben fast alle LLMs dieses
Kontext-Fensterlimit Okay? Wenn Sie nach dem
Kontextfenster der LLMs suchen, können
Sie einige
Details zu den Einschränkungen finden Jedes LLM hat
seine eigenen Einschränkungen. Okay? Zu diesem Zweck ist das Einbettungskonzept also da Intern müssen wir also die Details
als Einbettung
speichern und dann dynamisch den Datensatzteil aus
den Einbettungen
abrufen. Okay? Beim Einbetten der Suche müssen wir sie in der
Vektordatenbank
speichern Es wird als Rag
Retrieval Augmented
Generation bezeichnet . Im Falle einer Generierung besteht eine weitere
Taktik darin,
das Modell anzuweisen ,
mit Zitaten
zu antworten, aus denen der Generierung besteht eine weitere
Taktik darin,
das Modell anzuweisen,
mit Zitaten
zu antworten, aus denen der Referenztext stammt. Anstatt dass Staway abrupt
eine Antwort gibt, können
wir das Modell anweisen, die Antwort
mit Zitaten
anzugeben,
aus welchem Teil es die Antwort aus nächste Strategie besteht darin, eine komplexe Aufgabe
in ähnliche Unteraufgaben
aufzuteilen Die nächste Strategie besteht darin, eine komplexe Aufgabe
in ähnliche Unteraufgaben
aufzuteilen. Die Taktik besteht darin, anhand der
Absichtsklassifizierung die relevantesten
Abschnitte für Ihre Benutzeranfrage zu
identifizieren Wenn es zum Beispiel um den
Kundensupport geht, okay, es kann verschiedene
Bereiche wie Abrechnung,
technischer Support, Kontoverwaltung, allgemeine Fragen wie diese geben, richtig Jede Hauptkategorie
wird also ihr eigenes Ding haben, Beispiel im Fall von
Abrechnung, Abmeldung, Upgrade und
Zahlungsmethode. Technischer Support
bedeutet, Probleme mit der Gerätekompatibilität
wie Softwareupdates zu beheben. Also im Grunde genommen, auch wenn der
Kundensupport intern aus
verschiedenen Bereichen besteht, oder? Basierend auf diesem Abschnitt müssen
wir
ihn also klassifizieren, um
die relevantesten
Abschnitte für Benutzeranfragen zu identifizieren . Wenn sich die Benutzeranfrage
also auf die Abrechnung bezieht, kann ich die
abrechnungsbezogenen Anweisungen verwenden, oder? Hier haben sie
ein Beispiel gegeben. Also dieses Beispiel, wenn
der Benutzer fragt, muss
ich mein
Internet wieder zum Laufen bringen. Das ist der erste Fall bis jetzt, er kann die Klassifizierung vornehmen. Wenn es sich um eine Fehlerbehebung handelt, kann
es erneut
fragen, ich meine,
die Anweisung geben. Nur spezifisch für dieses
Problem geeignet. Es wird
effektiver sein, oder? Aber im Falle dieses Ansatzes werden
wir
ihn nicht in harter GPT sehen, so etwas
, weil
er eine Systemregel braucht, oder? Also hauptsächlich für den APA-Zugriff können
wir ihn effektiv nutzen Im Fall der
Dialekt-Anwendung hat, wie ich bereits erklärt habe, wie ich bereits erklärt habe,
jedes LAM sein
eigenes Kontextfenster, und wir müssen den Kontext-Verlauf übergeben , wann immer
wir
die Eingabeaufforderung richtig schreiben Selbst wenn wir
eine einfache Frage stellen, sendet
das Diagramm GPT all unsere vorherigen
Fragen auch an das GPT-Vier-Modell, damit es den Kontext verstehen
kann Aber aufgrund der Begrenzung des
Kontextfensters können
wir nicht alle
Dinge senden, oder? Nach einiger Zeit werden also die
vorherigen Fragen gestrichen. In diesem Fall werden wir den Kontext
verlieren, richtig. Um das zu vermeiden, können wir den vorherigen
Kontext
zusammenfassen, okay? Und dann können wir
es zu unserer neuen Eingabeaufforderung hinzufügen. Okay. Auf diese Weise können wir
mit dem Kontext-Fenster umgehen. Um den Kontext beizubehalten. Im Fall dieser Strategie modellieren Sie Zeit zum Nachdenken, hier haben sie
ein gutes Beispiel geliefert. Er fragt einfach sofort, ob die
Lösung des Studenten richtig ist oder nicht. Der Benutzer gibt
die Problembeschreibung an. Der
Assistent sagt sofort, dass
die Lösung des Schülers richtig ist. Aber diese Lösung ist
nicht wirklich richtig. In diesem Fall können wir es
bitten, zuerst Ihre
Lösung für das Problem auszuarbeiten und diese Lösung
dann
mit der Lösung des Schülers zu vergleichen. Okay? In diesem Fall heißt es also, dass die
Studentenlösung falsch ist. Wie ich bereits erklärt habe, ist es
sehr, ich kann es zusammenfassen da wir das Lm spezifisch
steuern müssen Nur dann können wir
die richtige Antwort bekommen. Wenn es einfach die Frage stellt und dann
die Antwort von Experten gibt, wird es nicht passieren Sie liefern also viele
Beispiele, okay? Also hauptsächlich mit Programmieren zu tun, okay? Ich meine, APA-Zugang. In diesem Fall haben sie auch
ein gutes
Prompt-Beispiel geliefert , okay. Im Falle einer Grammatikkorrektur, also bei der Konvertierung grammatikalischer Aussagen in
Standardenglisch, wird
die Aufforderung so aussehen, als ob Sie Anweisungen erhalten und Ihre Aufgabe darin besteht,
sie in Standardenglisch zu konvertieren Okay? In diesem Fall, wenn der Benutzer nein
sagt, ist
er in der Lage zu korrigieren C nicht auf
den Markt gegangen ist, okay. Die APA-Anfrage sieht so aus. Es verwendet die Klasse zur
Vervollständigung von Diagrammen. Sie verwenden das GPT-Viermodell. Wie ich bereits erklärt habe, ist
die Systemrolle bei der APA
verfügbar Im Fall von Chart
GPT, dieser Schnittstelle, werden
wir diese Option nicht haben, sondern nur Assistent und Benutzer Hier haben wir die
Systemrolle, okay? Fassen Sie
also den Inhalt zusammen, den Sie für
einen Schüler der zweiten Klasse erhalten ,
damit er das
Konzept auf einfache Weise erklären kann Anstatt dieser
technischen Dinge wurde
es also in eine
leicht verständliche Symbolik umgewandelt Geben Sie viele Beispiele an, vielleicht können Sie das überprüfen,
wenn Sie eine Website öffnen, okay?
5. Vorsicht vor KI-Halluzinationen: Hallo, alle zusammen. Dieses Video dient zur Erklärung von
A-Halluzinationen Zuallererst, was
sind A-Halluzinationen? A-Halluzinationen treten auf, wenn
ein A falsche,
irreführende oder unsinnige Informationen generiert, irreführende die plausibel erscheinen. Tools wie Chat GBT,
Google Gemini, Claudy, Deep C, QN Sind solche Alumnen, große Sprachmodelle, sie sind wirklich nützlich,
okay ? Sie sind sehr mächtig.
Sie werden nützlich sein um Artikel zu erstellen, Bilder zu
erstellen, und sie werden sogar in der
Lage sein, Codierung, Programmierung, Debugging,
Codierung usw. Es
gibt viele Anwendungen, okay? Aber das Problem ist, dass sie halluzinieren
werden, okay? Das heißt, sie geben
die falschen Informationen an, aber es wird wie
eine korrekte Information aussehen Das ist also der gefährliche
Teil der Halluzination. Es ist offensichtlich falsch, dann können wir diesen Teil einfach ignorieren
, Aber diese falschen
oder irreführenden Informationen werden
wie echte Informationen aussehen, okay? Wir müssen also sehr
vorsichtig sein, wenn wir A-Halluzinationen identifizieren
,
und wir sollten uns darüber im Klaren sein, dass
A-Halluzinationen derzeit
inkorrente Natur
von A-Modellen sind, okay ? Wir können also eine Menge
Dinge tun, um sie in den Griff zu bekommen,
aber es gibt keine solide Methode, sie aber es gibt Wir müssen also sehr
vorsichtig mit ihnen umgehen, okay? Verursacht uns AA-Halluzinationen. Der erste Grund ist die mangelnde Genauigkeit der
Trainingsdaten. Wir wissen, dass A-Modelle auf der
Grundlage der Trainingsdaten funktionieren. Wenn es also ein Problem
mit Trainingsdaten gibt, wird sich dies natürlich auf die Leistung
von A-Modellen auswirken. Halluzinationen treten auf ,
wenn die Trainingsdaten nicht
korrekt sind Und in ähnlicher Weise die übermäßige
Verallgemeinerung von Mustern. Wenn diese Daten nicht
ausreichend zur Verfügung gestellt werden , um die
Generalisierung korrekt durchzuführen, wird es auch
dieses Mal zu Halluzinationen kommen Es kann Datenproblem
als auch ein Modellproblem Verzerrungen in Trainingsdaten. Wiederum im Zusammenhang mit Trainingsdaten. Wenn die Trainingsdaten keine ausgewogenen
Informationen enthalten, treten Halluzinationen Einschränkungen des Modells, das
ist wichtig. Wie ich bereits erklärt habe, liegt
es in der Natur von AA. Dass AA-Modelle
nicht kognitiv sind. Sie sind nicht wie das menschliche Gehirn, oder sie
haben keine Intelligenz. Tatsächlich
haben sie keine wirkliche Intelligenz. Sie werden auf der
Grundlage der Vorhersage funktionieren. Was als Nächstes kommen sollte , dass nur sie sich benehmen werden. Aus diesem Grund werden
Halluzinationen auftreten. Ich meine, mangelnde
kognitive Funktion , okay?
Und schnelle
Fehlinterpretation Sofortige Fehlinterpretation,
gewissermaßen, wenn wir die Aufforderung vage oder
zweideutig geben, dann ist das natürlich so,
dass LLMs nicht
in der Lage sein werden, die richtigen Antworten
zu geben,
aber das Problem ist, dass sie Antworten geben
werden, die wie zweideutig geben, dann ist das natürlich so, dass LLMs nicht
in der Lage sein werden, die richtigen Antworten
zu geben, aber das Problem ist, dass sie Antworten geben
werden, aussehen Also nochmal, wir müssen sehr vorsichtig
sein, okay? Also Prompt Engineering, wir müssen uns
mit Prompt Engineering auskennen. Als ob viele Dinge da sind. Wir müssen
klare, präzise Anweisungen
mit ausreichend Kontext geben , und wir müssen ein
paar kurze Eingabeaufforderungen verwenden, diese Art von Herangehensweise
und Okay, Schritt für Schritt. Wenn wir die Modelle bitten , den Prozess Schritt für Schritt durchzuführen, dann hilft das natürlich, die Genauigkeit
zu verbessern, okay? Es wird die
Halluzinationen reduzieren, okay? Wir müssen die richtigen Anweisungen geben
. Wenn Sie die Eingabeaufforderungen nicht korrekt eingeben, treten
A-Halluzinationen A-Halluzinationen Dies sind die Ursachen
für A-Halluzinationen. Als nächstes Beispiele für A-Halluzinationen. A-Halluzinationen werden in verschiedenen Formaten
auftreten,
es werden es Es können erfundene
Nachrichtenartikel erstellt werden, die wie echte Nachrichtenartikel aussehen,
ohne dass es akademische Referenzen gibt. Es kann sogar einige
akademische Referenzen enthalten , die es in Wirklichkeit nicht gibt. Diese Art von Referenzen wird uns
dazu bringen, diese Informationen zu
glauben. Okay? Also mussten wir
auch das Vorhandensein
akademischer Referenzen falscher medizinischer Diagnosen überprüfen. Also ist es offensichtlich
besser, AA-Tools
für medizinische und
finanzielle Anwendungen dieser
Art zu vermeiden für medizinische und
finanzielle Anwendungen dieser
Art , okay? Aber wir können es verwenden, aber
diese Antwort direkt
als Endergebnis zu interpretieren, ist keine gute Art, mit
AA-Tools umzugehen, okay? Und eine andere Sache ist eine falsche historische Tatsache, inkohärente
Chatbot-Antworten, okay? Im Großen und Ganzen wird
es so sein, als würde
man die falschen Informationen auf glaubwürdige
Weise weitergeben Wir müssen also bei der
Identifizierung von Halluzinationen
zusätzliche Vorsicht walten lassen Okay? Das ist ein Beispiel. Ich habe Google Deutschland
diese Frage gestellt. Warum hat Google
250 Mitarbeiter entlassen, okay? Basierend auf meiner Google-Suche
gibt es also keine
aktuellen Neuigkeiten, okay? Tatsächlich habe ich eine Nachricht gefunden,
die besagt , dass Google-Mitarbeiter, etwa 250 Mitarbeiter,
gegen Googles Vertrag
mit Israel oder so protestierten gegen Googles Vertrag
mit Israel oder so Okay? Also habe ich einfach die Nummer gefunden und
diese Frage gestellt, okay? Aber Deutschland fing an, die Antwort zu
geben, okay? Also jemand, der
sich dieser Dinge nicht bewusst ist, wenn er diese
Frage und diese
Antwort sieht , wird er glauben , dass das tatsächlich so
passiert ist. Okay? Das ist ein Beispiel, aber es wird
auch
eine Menge absolut falscher Antworten geben, okay? Wir müssen also
sehr vorsichtig mit den Auswirkungen und der Verbreitung von Fehlinformationen Okay? Wenn Sie also zum Beispiel
CharBT oder eine andere Anwendung
zum Erstellen Ihres Blogposts verwenden, werden
Ihre Leser das auch mit anderen
Leuten
teilen, oder? Und jemand wird ein
Video erstellen, das auf diesem Inhalt basiert. Im Grunde
werden sich diese Fehlinformationen verbreiten, okay? Viele Leute werden anfangen , diese Fehlinformationen
als Karton zu
glauben, okay? Das sind also Risiken,
okay, rechtliche und ethische Fragen Also,
wenn jemand aufgrund
dieser Informationen betroffen ist , wird
er
Klagen einleiten, oder? Also werden solche
Probleme auftreten. Selbst wenn sie sich nicht
dafür entscheiden, eine Klage einzureichen, ist es trotzdem
ein ethisches Problem, oder? Zuverlässige AA-Systeme für Erosion. Wenn wir
AA-Systeme nicht richtig verwalten , ohne A-Halluzinationen in
Betracht zu ziehen, und wenn Sie
die AA-Leistung
als letzte Sache betrachten und
andere Systeme verwenden , dann werden die
Leute natürlich sagen, ihr Selbstvertrauen oder
Vertrauen in AA-Systeme
verlieren, okay? ihr Selbstvertrauen oder
Vertrauen in AA-Systeme
verlieren , okay AA-Systeme sind wirklich leistungsstark. Daran besteht kein
Zweifel, okay? Aber wir müssen
es richtig einsetzen. Andernfalls wird das Vertrauen
der A-Systeme
beeinträchtigt, okay? Potenzieller Schaden in
kritischen Bereichen, zum Beispiel Gesundheitswesen
und Finanzen, okay werden
Sie die
Auswirkungen natürlich Wenn Sie im
Gesundheits- und Finanzwesen falsche
oder falsche Informationen verwenden, sofort spüren. Es wird schwer sein, oder? Als Nächstes werden AA-Halluzinationen erkannt und
reduziert. Okay? Wie ich bereits
erwähnt habe , sind Halluzinationen ein fester Bestandteil von
A-Modellen. Es gibt also keine Möglichkeit, Hallisationen
vollständig zu vermeiden Aber wir können etwas tun,
um
sie zu erkennen und diese Auswirkungen zu reduzieren
, okay Eine davon ist die Gegenprüfung eines
generierten Kontakts. Das ist offensichtlich. Also wann immer Sie Antworten
von A-Tools wie HarGPD, Gemini, Cloud, DC, n oder
anderen Modellen Der erste Schritt besteht darin,
die Ausgabe anhand anderer Quellen
zu überprüfen die Ausgabe anhand anderer Quellen
zu überprüfen Ist eine Sache. Und die
andere Sache auch, wir können die Ergebnisse von
einem Modell abrufen und
mit einem anderen Modell abgleichen.
Das ist also eine andere Sache. Aber letztendlich
ist es besser, das
mit irgendwelchen
Originalquellen abzugleichen, okay? Und verbessern Sie die Trainingsdatensätze. Wenn wir also
unsere eigenen Modelle verwenden, können
wir die
Trainingsdaten ordnungsgemäß bereitstellen. Wir müssen ausgewogene,
unvoreingenommene Trainingsdaten mit
genügend Daten hinzufügen unvoreingenommene Trainingsdaten mit
genügend Daten ,
die alle derartigen Szenarien abdecken Okay. Als Nächstes implementieren wir die Überprüfung durch den Menschen in der
Schleife. Wir müssen Menschen einsetzen, um den A-Ausgang zu
verifizieren,
okay, die Interpretierbarkeit von A
und die Überwachung verbessern Praktiken. Halluzinationen
sind eine Es ist also wirklich wahr. Okay. Ja, wie gesagt, A-Tools sind wirklich
mächtig, okay. Aber aufgrund dieser
Halluzinationen sind
ihre Einsatzmöglichkeiten
momentan begrenzt, kommerziell nutzbar Im Moment können wir nicht erwarten
, KI-Tools aufgrund dieser Halluzination häufig eingesetzt werden, und es sind
kontinuierliche Verbesserungen und Kontrollen erforderlich kontinuierliche Die ethische Entwicklung von AA ist
entscheidend für die Zuverlässigkeit. Bewusstsein und verantwortungsbewusster Umgang
mit KI sind entscheidend, okay? Im Moment ist das
Erste Bewusstsein, okay? Das ist wie in diesem Video, okay? Aber aus technischer Sicht können
wir eine Menge Dinge tun,
okay, vor allem die
erweiterte Generierung testen. Wir nennen das Erdung
der LLMs, okay? Indem wir einige externe Daten geben, können
wir die LLMs dazu bringen, die Nationen der
Calise zu meiden , indem wir
diese externen Daten nehmen Das ist ein Ansatz, bei dem
wir Ag-Systeme im
Fall von A-Anwendungen verwenden können , oder im
Fall einfacher Eingabeaufforderungen können
wir anhand einiger solider Beispiele einige kurze
Aufforderungen verwenden . In diesem Fall werden die LAMs natürlich versuchen, die Halluzinationen zu
vermeiden Okay? Also gibt es zwei
Dinge. Eines ist Bewusstsein. Wir müssen uns über
das Verhalten von A-Tools im Klaren sein. Und eine andere Sache
ist die Verwendung von Ansätzen zur
Verringerung der Auswirkungen. Aber wie gesagt, wir können es nicht
vollständig kontrollieren. Wir müssen es immer
im Hinterkopf behalten.
6. Google Teachable Machine – die einfachste Methode zum Training von KI: In diesem Video wird die Teachable Machine von Google
erklärt Teachable Machine ist
ein webbasiertes Tool. Wir können darauf zugreifen, indem wir einfach Teachable Machine Dot mit
google.com Es ist also ein browserbasiertes Tool. Es wird sehr nützlich sein, um Training des
maschinellen Lernmodells zu
erklären. Okay? Wir können das maschinelle
Lernmodell mit Bildern, Audio und Pose trainieren . Daher wird dieses Tool für Anfänger sehr
nützlich sein , um die KI zu verstehen. Abgesehen von der Erklärung von KI kann
es uns auch
helfen, das trainierte Modell zu erstellen , damit wir es
in unserer Anwendung verwenden können. Es gibt also zwei Zwecke. Einer dient
der Erklärung des Konzepts. Ein anderes, wir können dieses Modell wirklich in
unserer Anwendung
verwenden. Okay? In erster Linie hat Google damit angefangen,
um das A-Konzept zu erklären, aber wir können es trotzdem
für unsere Anwendung verwenden. Es verwendet tatsächlich intern Tensorflow Dot S für das Modell In ähnlicher Weise können
wir es beim Exportieren als
Tensorflow-Punkt-JS-Datei exportieren Okay. Du siehst die
Erklärung, oder? Also hier, ähm, es ist der
Abzugsprozess, richtig? Also hier unterscheidet es Metall und Nichtmetall,
Baum und Flügel, also
alles nach
Abzug . Okay? Also ist es Audio. Schnappen und klatschen, das
unterscheidet. Okay? Also im Grunde funktioniert
es für Bilder. Ich werde für Audio arbeiten, es wird für die Post-Regie funktionieren. Okay? Es ist also eine
sehr einfache Sache, leicht zu verstehen, und Sie können alles im
Browser selbst erledigen. Okay? Also lass es mich erklären, indem ich
dir eine Demo zeige, okay? Lassen Sie mich zunächst
auf „Los geht's“ klicken. Hier sehen wir also
drei Optionen, oder? Imageprojekt,
Audioprojekt und Post-Projekt. Ich nehme nur ein sehr einfaches
Beispiel für ein Imageprojekt. Okay? Also wähle ich das
Standard-Bildmodell. Also hier sehen wir Training in
Klasse eins, Klasse zwei, eine
Vorschau auf diese Dinge zeigt, richtig. Es wird also im Grunde so funktionieren, dass wir Trainingsdaten
für jede Klasse
bereitstellen müssen . Okay? Nach dem Hochladen der
Trainingsdaten mussten
wir das
Modell einmal mit den Daten trainieren Dann können wir
das trainierte Modell verwenden
, um es für die Erkennung
anderer Bilder Okay, das ist das
Gesamtkonzept. Also hier, Klasse eins
und Klasse zwei, werde
ich ein sehr
einfaches Beispiel nehmen: Katze und Hund. Okay? Klasse eins ist Katze, Klasse zwei ist Hund. Oder das Geben von Bildbeispielen. Entweder wir können
Webkameras verwenden, Objekte in Echtzeit, wir können einfach
diese Webkamera in Zukunft verwenden oder wir können die bereits
verfügbaren Bilder
hochladen. Okay? Also entscheide ich mich einfach für
die ganz einfache Sache. Das heißt, ich werde
die Daten hochladen. Ich habe bereits
ein paar Katzen
- und Hundebilder aus dem Internet heruntergeladen . Ich behalte
drei Bilder für
das Training und ein Bild
für das Testen. Okay? Also werde ich jetzt
die Trainingsbilder hochladen, okay? Also wähle ich die Katze also lade ich drei
Katzenbilder hoch, richtig. Und in ähnlicher Weise werde ich
auch für den Hund hochladen. Im Moment also drei
Katzenbilder mit der Bezeichnung Katze, drei Bilder von Hunden, die als Hund
gekennzeichnet sind. Es gibt verschiedene
Arten von Bildern, oder? das Modell zu
trainieren, müssen
wir also grundsätzlich verschiedene Bilder verwenden, und es ist besser, eine größere Anzahl von
Bildern zu
haben , um eine bessere Genauigkeit zu erzielen. Okay? Jetzt werde ich es trainieren. Die fortgeschrittenen
APOC-Dinge sind also da. Vielleicht brauchen wir uns
über diese Dinge jetzt keine Sorgen zu machen. Ich werde auf Zugmodell klicken. Okay? Also bereitet es
Trainingsdaten vor. Also trainiere ich jetzt das Modell, okay? Das Training wurde abgeschlossen. Jetzt müssen wir das
Eingabebild zum Testen angeben. Okay. Also werde
ich jetzt eine Katze benutzen. Katze testen, okay? Also hat es jetzt als Katze Regie geführt, 100% ig selbstbewusst, okay? Also seht ihr, wir haben mit
diesen drei Katzenbildern trainiert, aber diese Katze ist völlig
anders als diese drei, aber sie ist trotzdem in der Lage, dieses
Katzenbild als Katze zu identifizieren, okay? Jetzt können wir es
mit einem anderen testen. Okay, okay. Also haben wir jetzt als Hund
Regie geführt, okay? Also so einfach. Okay? Wir können das Modell exportieren. Wenn Sie also auf Modell exportieren klicken, können
wir die
Tensorflow Dot JS-Datei abrufen Okay? Du kannst es herunterladen. Okay? Sie können den Link sogar
teilen ,
damit jeder, der Ihr Modell verwenden
möchte ,
es verwenden kann. Okay? Eigentlich haben wir Trainingsdaten ausgewählt und als Katze und Hund
gekennzeichnet und diese beschrifteten Bilder verwendet um das Modell einmal
nach Fertigstellung des Modells zu trainieren. Wir haben es mit
Eingabebildern getestet , indem wir ein
Katzenbild und ein Hundebild eingegeben haben. Bei der Eingabe des Katzenbildes wurde erkannt, dass es sich um eine Katze handelt, also
100% ig, und
wenn ein Hundebild gegeben wurde, wurde
es als Hund erkannt. Okay? Also, wenn du in der Lage bist, diese Übersicht zu
verstehen, kannst
du es mit verschiedenen Dingen versuchen. Eigentlich habe ich
verschiedene Samples durchgesehen , die mit diesem,
ähm, Tool
erstellt wurden , okay? Also eine Menge sehr, sehr
innovativer Dinge. Okay, denn im Grunde wirst
du in der Lage sein,
das Modell mit vielen verschiedenen Dingen zu trainieren ,
ich erzähle dir
nur
von der ganzen Sache. Abgesehen von diesem Bild erlaubt
es auch,
mit Audio zu trainieren und zu posieren, oder? Mir ist ein interessantes
Beispiel aufgefallen, zum Beispiel mit Flossen, jede Fingerposition
gesteuert wird,
ähm, als ob sie
mit Musiknoten korrelieren Okay? Auf diese Weise werden
sie in der Lage sein,
Musik zu erzeugen , indem sie einfach die
Finger in der Luft bewegen. Okay? Das ist nur ein Beispiel. In ähnlicher Weise können Sie dies
für eine beliebige Anzahl von Arbeiten tun. Okay. Sie können es also
für kreative Zwecke verwenden, und wenn solide Arbeit
ansteht,
können Sie einfach
darüber nachdenken, wie Sie es verwenden können. Okay, ich werde dir helfen, viel Zeit
zu sparen. Abgesehen vom Lernzweck kann es
sogar
für echte Zwecke verwendet werden, okay? Also habe ich mir überlegt
, das zu erzählen
, nur um einen Überblick darüber zu geben, wie
das Training funktionieren wird. Aber es gibt auch viele andere
Dinge, okay? Ähm, das sind sehr
komplexe Dinge. Ähm, aber meistens ist der grundlegende
Prozess dieser. Sie müssen die
richtigen Trainingsdaten auswählen und diese beschriften und
dann das Modell trainieren. Mit einem trainierten Modell können
wir das Objekt erkennen, okay?
7. Die ultimative Liste der KI-Tools, die du 2025 erkunden kannst: Das Video soll einen
Überblick über einige KI-Tools geben. Eigentlich habe ich
es in ein paar Abschnitte unterteilt, einen Chat-Bots, A für die
Bilderzeugung, A für die Videoerstellung,
KI für Audio, A für Codierung, A
für Produktivität, A für Forschung und
lustige A-Experimente. Okay. Lass mich eins nach dem anderen zeigen. Der erste ist Chat GPT. Es wird von Open AI bereitgestellt, okay? Ich habe mich bereits damit
angemeldet. Andernfalls müssen wir uns
zuerst anmelden, okay? Wir können unser
Google-Konto auch verwenden, um diesem HAGPT
anzumelden. Okay? Sie können zu chgpt.com kommen und
Fragen stellen. Okay. Es wird Antworten
auf Ihre Fragen geben. Es wird mit dem Modell LLM
GPT Four betrieben, okay? Und wir können
das Modell auch ändern. Das werde ich zeigen. Im Allgemeinen wird jedoch
standardmäßig das GPT-Vier-Modell
verwendet Es ist ein Modell mit mehreren Modellen. Das heißt, wir können
Fragen im Text stellen. Wir können Bilder verwenden. Okay. Lassen Sie mich zunächst mit
einer sehr einfachen Sache beginnen. Was ergibt vier plus fünf. Okay. Es wird sofort die Antwort
geben. Okay? Und wir können
es bitten, ein Gedicht zu schreiben, ein Gedicht über den Mond. Es wird das Gedicht schreiben. Wenn Sie der Meinung sind, dass das
Gedicht lang ist, können
Sie es bitten, es neu zu schreiben,
indem Sie es verkleinern Du kannst es bitten, es kurz zu machen. Oder Sie können es sogar bitten, den Ton zu
ändern, andere Dinge. Okay? Also kannst du interaktiv mit CarpT
arbeiten, okay Sie
können nicht nur Text, sondern auch Bilder verwenden. Sie
können beispielsweise ein Bild hochladen oder es
von Google Drive abrufen. Okay. Also kannst du alle Bilder
hochladen und
Fragen dazu stellen, okay? Also lade ich nur diese Einführung zu diesem
Vorschaubild hoch, okay? Also kann ich Fragen stellen. , zunächst kann
ich dich bitten, den
Text auf dem Bild zu sagen, okay? Erzählen Sie den Text auf diesem Bild. Es ist also eine Art OCR. Es wird
im Text erkannt und es wird der Satz,
okay, Einführung in KI, okay? liegt an ihnen, dass
du es bitten kannst, es zu beschreiben, welche Farbe, wie
es aussieht. Okay? Nicht nur dieses, wir können ChargPT sogar bitten, Bilder
zu erstellen, okay? Vielleicht können wir es bitten, ein ähnliches Bild zu
erstellen, ein
attraktives Bild zu
erstellen, um diesen Text zu zeigen Okay, es wird versuchen, das Bild zu
erstellen. Sie können sogar Anweisungen geben, so
sollte der Hintergrund so aussehen. Sie können diese Art
von Schrift so verwenden. Okay. Nun, Einführung in. Also ist es etwas besser
als das, oder? Wir können es für
Werbung und andere Dinge verwenden. Okay. Angenommen, Sie haben ein solches Video
erstellt und möchten
es auf Instagram und Twitter bewerben, können
Sie dieses Bild verwenden. Es sind also viele Dinge da. Nicht nur dieses, auch
in Echtzeit, wir können damit einige Details
aus Bildern und Textdetails abrufen. Okay? Das spart viel Zeit und Zeit für das
Tippen der Dinge. Aber eine Sache ist, dass
manchmal die Antworten falsch sein können, also müssen wir
wegen Halluzination sehr vorsichtig sein , okay Und wenn Sie möchten, können
Sie dieses Lautsprechersymbol verwenden,
um den Text als Audio zu hören In ähnlicher Weise
können Sie dieses Symbol
für das
Sprachmodussymbol zum Sprechen verwenden . Anstatt zu tippen, können
Sie einfach
Fragen stellen , indem Sie
auf dieses Mikrofon klicken. Okay? Außerdem können Sie
JGBT auch zum Schreiben von Codierungen verwenden JGBT auch zum Schreiben von Codierungen Wir können es bitten, einen
Python-Code für Reverse-Tests zu schreiben. schreiben nicht nur Code, wir können unseren
Code auch einfach hierher kopieren und ihn bitten, ihn zu debuggen, oder
wenn Sie eine Erklärung wünschen, wird
er jeden Satz
einzeln erklären Okay. Also es ist eine wirklich
nützliche Sache. Sie können es auch für die Erstellung von
E-Books verwenden, okay? Es ist nur ein Überblick
über Char GBT. Aber viele Dinge
sind da. Wir müssen schnelle Technik einsetzen. Als nächstes kommt Deutschland,
Google Deutschland. Es ist fast
ähnlich wie Char GBT. Hier können Sie auch
Fragen stellen. Sie können Bilder und Audio verwenden. Okay? Also fast
genauso wie Char GbT. Okay, erstelle ein Bild
für mein E-Book-Cover. Wir können verschiedene
ALM-Chat-Bots untersuchen , um bessere Antworten zu erhalten. Wir können einfach verschiedene
Dinge wie ChargBTGEmany oder
Deep Seek durchgehen Deep Okay. Wir können
den besten gebrauchen, okay? Und sogar du kannst es überprüfen. Sie können es bitten, einen Artikel von
Char GBT zu
erstellen und diesen
Inhalt in Deutschland einzufügen und Deutschland zu bitten, zu überprüfen ob ein solcher Fehler
vorliegt, okay Fast alle Dinge
sind ähnlich, okay. Und in ähnlicher Weise verwirrtes DAA. Es wird als Suchmaschine angesehen. Wir können auch hier die neuesten
Informationen erhalten. Okay. Hier
können wir auch Fragen stellen. fast all diesen Dingen müssen
wir uns einloggen, okay? Ich habe mich schon angemeldet. Andernfalls werden Sie
aufgefordert, sich anzumelden, okay? Das sind alles A-Chatbots. Wie viele andere
Dinge auch da. Also, Deep C ist gerade, es wächst sehr schnell, okay. Und als Nächstes steht A für
Bildgenerierung und Bearbeitung. Di ist ein von Open AI
bereitgestelltes Modell zur Bilderzeugung. Es ist bereits
in SHAPT integriert. Deshalb
können wir
Bilder in Char
GBT selbst erstellen , okay So können wir
Testbeschreibungen geben
und es werden
automatisch
Bilder generiert, und es werden
automatisch
Bilder generiert die auf
unseren Beschreibungen basieren Okay? Es
gibt viele Anwendungen, die Di verwenden.
Du kannst sie benutzen. Sie können sie sogar zum Erstellen
Ihrer eigenen Anwendung verwenden. Okay? Als nächstes kommt Canva AI, Magic Design, Magic Edit So können wir verschiedene Funktionen sehen. Mach mir sofort ein Bild, schnelleres Design zur Trockenreinigung,
entferne Hintergründe. Okay? Alle verwenden KI, okay? Wir können darum bitten, ein Bild zu
erstellen, ein Bild mit
dunklem Kopf und Picabeinen zu erstellen. Okay? Ich erzähle es nur
als Beispiel, aber Sie können es für
jede Art von realen Dingen verwenden, okay, für Ihre
Marketingzwecke. Als Nächstes entfernen Sie
Punkt BG, um
die Hintergründe mithilfe von KI aus den
Bildern zu entfernen , okay? Also hier kannst du einfach das Bild
hochladen, okay, und es dann bitten, den Hintergrund zu
entfernen. Okay? Es wird es entfernen. Hier. Sie haben
ein paar Proben zur Verfügung gestellt, okay? Das spart eine Menge Zeit für größere
Bearbeitungen, oder? Der nächste ist A für
Videoerstellung. Der berühmte ist Runway ML. Also hier können wir anfangen, es zu benutzen. Sie lieferten viele Beispiele. Extra ist in diesem ein. diesem ist auch
ein kostenloser Videogenerator enthalten. Du kannst einfach Text für die
Erstellung von Videos angeben, okay? Sie haben auch Beispiele zur Verfügung gestellt, gehen Sie das
einfach durch. Und ähnlich die PCR-Labore. Also und ist sowohl für die
Audiogenerierung
als auch für die Transkription nützlich .
This even Labs ist berühmt
für die Erstellung von Stimmen Sie können einfach den Text geben. Ich werde in Sprache umwandeln. Okay. Sie müssen nur den
Text eingeben und dann
können Sie einige Optionen auswählen, dann wird
das Audio für Sie erstellt. Und dieser eine Whisper
von Open AI. Es ist ein Tool zur
Transkription von Sprache in Text. Also müssen wir das Vice hochladen und es wird in Text umgewandelt Das spart viel Zeit
bei der Transkription. Okay? Dieser Vice von AAA
klont deine Stimme, okay? Ein Laster. Um
weiteren Text zu generieren. Also ich gebe nur
als Beispiel, es können viele Dinge getan werden. Okay, also nur ein paar Beispiele, du kannst einfach diese Seiten
durchgehen und es selbst ausprobieren. Okay. Abgesehen davon kann
E auch beim Programmieren sehr
nützlich sein. Im
Fall von Git Copilot kann
es dir zum Beispiel helfen, die Codierung auf deine
Lieblings-ID selbst zu schreiben , okay? Wenn Sie also den Code angeben und ihn bitten können, den Fehler
zu beheben Okay? Es wird den Fehler beheben und
den Code selbst aktualisieren, okay? In ähnlicher Weise gibt es andere Tools
, Codim Tab Nine. Und Produktivität
für Produktivität, der Begriff ist sehr bekannt Fast können wir viele
Dinge innerhalb des Begriffs selbst tun. Okay, es wird also eine Menge Zeit
sparen. Also viele Leute nutzen das, um die
Produktivität zu verbessern. Okay? Sie können suchen, Dokumente
generieren, Erkenntnisse
analysieren, um Erkenntnisse zu erhalten. Wir können mit jeder
Art von Chat-Bots chatten. Alles kommt aus
dem Begriff selbst, okay? Sie können die Proben hier sehen. Und was die Grammatik angeht,
hoffe ich, dass es jeder benutzen wird die Grammatikprüfung anzusehen, oder? Es wird beim Schreiben sehr
nützlich sein. Und für die Recherche sind
viele wissenschaftliche Mitarbeiter da um
wissenschaftliche Arbeiten zusammenzufassen Es wird also viel Zeit sparen. Okay. Und viele lustige
Experimente gibt es auch. Also diese Seite, diese
Person existiert nicht. Es wird nach dem Zufallsprinzip ein menschliches Bild
erzeugen. Eigentlich ist es kein Bild
eines bestimmten Menschen. Es wird generiert. Okay. Es sieht also
aus wie eine echte Person. Wenn Sie auf Referenz klicken
, werden neue Bilder generiert. Nur zum Spaß, damit wir
die Macht von A und
diese tiefe Nostalgie verstehen ,
können Sie einem alten Bild geben Es wird automatisch ein Video dafür
generieren, zum Beispiel
für dieses Bild, es hat dieses Video erstellt Eine Menge Dinge, die sie zur Verfügung gestellt haben. Du kannst es selbst versuchen. Also all diese Dinge nur um einen Überblick
darüber zu geben, wie A verwendet werden kann. Aber in der realen Anwendung ist
es in fast allen
medizinischen Branchen fast
nützlich. Sie sind also nützlich,
um Krankheiten
anhand der Scans zu identifizieren. Okay. Sogar es ist nützlich, um
neue Medikamente zu entwickeln. Okay. Also, nur um
das zu verstehen, nur um dich damit vertraut zu machen, kannst
du diese
Dinge durchgehen, damit du die
A-Macht verstehen
kannst, okay?
8. KI-Jargon für Anfänger:innen: In diesem Video
werde ich einige Begriffe erläutern
, die mit künstlicher Intelligenz
A zu tun Lassen Sie mich zunächst mit dem beginnen
, was ein A-Modell ist. Ein A-Modell ist ein
Computerprogramm, das Muster
aus Daten lernt und Vorhersagen trifft
oder Antworten generiert. Das heißt, wir müssen zuerst das
A-Modell anhand von Daten trainieren, dann wird das trainierte Modell in der Lage
sein, Vorhersagen zu treffen. Einige A-Modelle werden mit Rohdaten
von Grund auf neu trainiert. Und wir haben bereits viele vortrainierte
Modelle, sodass wir
schnell mit
der Entwicklung beginnen können , ohne Zeit
für das Training der Modelle aufzuwenden , okay? Aber wir müssen eine Art Feinabstimmung vornehmen, damit
es für uns funktioniert. Also als nächstes, vortrainiertes Modell. Also vortrainierte Modelle, wie gesagt, es gibt viele
vortrainierte Modelle, wie Bird für NLP-Aufgaben, natürliche
Sprachverarbeitung und Wiser für
Spracherkennung und Dali
für die Bilderzeugung. Also diese Art von vortrainierten Modellen wird mit einer Menge Daten
trainiert, riesigen Daten mit enormer
Leistung und Rechenleistung Wir müssen nicht
so viel Mühe aufwenden , um dieses Modell
zu bekommen Also können wir das Modell einfach an
unsere eigenen Empfehlungen
anpassen und dann können wir es verwenden. Das ist die nächste
Sache, die Feinabstimmung. Feinabstimmung ist also der Prozess dem ein vorab trainiertes A-Modell anhand eines
kleineren Spezialdatensatzes,
unseres eigenen Datensatzes, weiter trainiert wird, um
seine Leistung für eine
bestimmte Aufgabe, unsere eigene Aufgabe, zu verbessern . Zum Beispiel kann der allgemeine
Chatbot wie GPT auf juristische
Dokumente
abgestimmt werden , um
genauere Antworten auf Rechtsfragen
zu geben genauere Antworten auf Rechtsfragen
zu In ähnlicher Weise kann das
Bilderkennungsmodell anhand von medizinischen Scans
verfeinert werden , um
Krankheiten effektiver zu erkennen Die nächste Frage
ist Inferenz in der KI. Inferenz ist der Prozess bei dem ein A-Modell das, was es während des Trainings
gelernt hat,
anwendet , um einen Output zu generieren
oder eine Entscheidung zu treffen Im Grunde ist es eine Vorhersage
oder die Verwendung des trainierten Modells. Wann immer wir Inferenz sagen, bedeutet
das, dass wir
das trainierte Modell
für unseren Zweck verwenden das trainierte Modell
für unseren Zweck Das Beispiel: Wenn Sie eine
HargBTA-Frage stellen, analysiert
es die
Eingabe und generiert eine relevante Antwort auf der
Grundlage von Ähnlichem
verwendet
ein Auto mit L-Fahrtrichtung Inferenz, um Verkehrszeichen zu erkennen und Fahrentscheidungen
in
Echtzeit Die nächste Frage ist, was
ist ein Datensatz in KI? Datensatz ist eine strukturierte
Sammlung von Text, Bildern, Zahlen oder anderen
Datentypen, die
zum Trainieren und Auswerten von A-Modellen verwendet werden zum Trainieren und Auswerten von A-Modellen Wann immer wir ein A-Modell
trainieren, müssen
wir über
qualitativ hochwertige Daten verfügen ordnungsgemäß
angeordnet sind ,
damit der
Trainingsprozess effektiv ist Und nach
Abschluss der Schulung müssen
wir die A-Modelle evaluieren und
testen. Auch dafür
müssen wir Daten aufbereiten. All diese Daten
zusammen nannten uns Datensatz. Die nächste Frage ist, was
bedeutet Voreingenommenheit in der KI? Bias in A ist ein sehr wichtiges Thema , da das A-Modell mit Daten trainiert
werden kann. Falls
die Daten jedoch falsche Informationen enthalten, ist die Funktionalität des
A-Modells nicht korrekt. Okay. Wenn es also
Probleme mit den Daten gibt, spiegelt
sich das in der Leistung des
Modells wider. Es wird als Voreingenommenheit bezeichnet. Was ist dann Null-SAT-Lernen? Zero-SAT-Lernen ermöglicht es A, Aufgaben zu bewältigen, die es
noch nie zuvor gesehen hat. Wenn ein Chatbot beispielsweise eine Frage zu
einem neuen Thema
ohne spezielle Schulung
korrekt beantwortet , verwendet
er Zero-SAT-Lernen Wenn Sie
beispielsweise ein Modell verwenden, das nicht
mit Zebrabildern trainiert wurde, es
aber
Zebrabilder erkennen kann,
dann spricht man von Zero Set Learning Im Grunde werden die Textbeschreibungen
zur Identifizierung verwendet Textbeschreibungen
zur Identifizierung Ohne Bildtraining wird
es dazu in der Lage sein. Das wird als
Zero-Set-Lernen bezeichnet. Was ist dann ein neuronales Netzwerk? neuronales Netzwerk ist eine
Art Modell, das die Art und Weise
nachahmen soll , wie das menschliche Gehirn Informationen
verarbeitet Es besteht aus Schichten miteinander verbundener
künstlicher Neuronen, die Muster aus Daten
lernen Jedes Neuron empfängt
Eingaben, wendet Gewichte und leitet das Ergebnis
einer Aktivierungsfunktion weiter, um Entscheidungen
zu treffen Neuronale Netzwerke
werden beim
Deep Learning häufig für Aufgaben
wie Bilderkennung, Sprachverarbeitung und
Sprachübersetzung Einige Beispiele sind CNNs
zur Bildklassifizierung, konventionelle neuronale
Netze, CNN-Mittel und RNNs
zur Spracherkennung Im Grunde versucht es, die menschliche
Gehirnaktivität zu kopieren Das Gewicht in dem
Sinne, dass
es intern, basierend auf den Trainingsdaten, basierend auf den Trainingsdaten, die Gewichte so anlegt
, dass der Verlust geringer wird. Es ist also im Grunde etwas Ähnliches wie unsere
biologischen Neuronen. Biologische Neuronen, diese
Information basiert auf der Stärke der Verbindung zwischen den Neuronen, richtig? Das gleiche Konzept gilt auch
für dieses künstliche
neuronale Netzwerk. Was ist dann Tokonisierung bei AA? Tokonisierung ist der Prozess, bei dem Text in kleinere Token aufgeteilt Du kannst es also verstehen. Zum Beispiel ist A mächtig. Ich würde aufgeteilt werden in
KI ist mächtig. A verarbeitet diese Tokens
anstelle von ganzen Sätzen. Im Fall von Charge GPT besteht
ein Token in der Regel aus etwa
vier Zeichen Was ist dann generative KI? Generative AA ist eine Art automatisierter Intelligenz
, die
neue Inhalte wie Text,
Bilder, Musik
oder Code erstellt neue Inhalte wie Text,
Bilder, , anstatt nur bestehende Daten zu
analysieren Ermittelt Muster aus
großen Datensätzen und generiert Ausgaben
auf der Grundlage CharBT erzeugt beispielsweise Textantworten, die
menschenähnlich sind. Dali generiert Bilder aus Beschreibungen und
Musint Generata wird beim
kreativen Schreiben,
Design und Automatisierung eingesetzt, um Produktivität und Innovation zu steigern Dieses generierte GAA
spielt heutzutage also eine sehr wichtige
Rolle,
dass große Sprachmodelle, LLMs wie Har GPT, dieses GPT-Viermodell dieses Sie werden
mit vielen Daten trainiert. Anstatt das
Modell selbst zu trainieren, können
wir einfach anfangen, diese
Art von LLMs mit APA zu verwenden, und dann können wir
unsere A-Anwendungen erstellen Okay? Großzügigkeit spielt heutzutage also eine
wichtige Rolle Was ist Halluzination? Eine Halluzination tritt auf, wenn
ein A-Modell falsche,
irreführende oder unsinnige Informationen generiert irreführende Das klingt überzeugend, ist aber wahr
. Das liegt daran, dass A-Modelle Reaktionen auf der
Grundlage von Mustern
in ihren Trainingsdaten
vorhersagen und raten, wenn ihnen
genaue Informationen fehlen. Chartbo könnte beispielsweise
TFA-Zitate erfinden und falsche historische Fakten liefern die
Halluzinationen zu reduzieren, sind qualitativ
hochwertige Trainingsdaten, eine
bessere Überprüfung der Fakten
und Techniken wie
die Verankerung von AA-Reaktionen in verifizierten Quellen erforderlich qualitativ
hochwertige Trainingsdaten, bessere Überprüfung der Fakten
und Techniken wie Um die
Halluzinationen zu reduzieren, sind qualitativ
hochwertige Trainingsdaten, eine
bessere Überprüfung der Fakten
und Techniken wie
die Verankerung von AA-Reaktionen in verifizierten Quellen erforderlich. Es liegt also im Grunde genommen an der Natur
der AA. Okay? Also bis jetzt gibt es keine solide Möglichkeit, das
zu verhindern. Wenn Sie mit der
Verwendung von Char GPT und Gemini vertraut sind, wissen
Sie das vielleicht Manchmal geben
wir sogar bei Fragen mit einem
kleinen Symbol, Shar GPT oder Gemini, Shar GPT oder Gemini, falsche Der Halston ist ein sehr
großes Problem in der KI. Aber um damit umzugehen, haben wir unterschiedliche Ansätze,
zum Beispiel Auslösen von Tricks wie
Chain of Thoughts und Rag Trial
Augmented Generation Indem wir einige externe
Daten mit Rag angeben, können
wir einfach versuchen, das Halluzinationsproblem zu mildern Aber trotzdem ist es ein großes Problem. Was bedeutet W-Anpassung in KI? Überanpassung liegt vor
, wenn ein KI-Modell Muster aus
Trainingsdaten zu genau
lernt, einschließlich Rauschen oder
irrelevanter Details, sodass es
bei neuen, unsichtbaren Daten schlecht abschneidet Es ist, als würde sich ein Student Antworten
merken anstatt das Thema zu verstehen Eine Überanpassung kann durch
Techniken
wie Regularisierung, Erweiterung der
Dropout-Daten und Kreuzvalidierung reduziert Techniken
wie Regularisierung, Dropout-Daten Überanpassung ist
zum Beispiel so, dass wir
Trainingsdaten haben oder das Modell
trainieren, sodass das Modell vollständig trainiert
wird, damit es für die Trainingsdaten am besten geeignet Wenn Sie also die
Trainingsdaten für Testzwecke verwenden, werden
sie einwandfrei funktionieren Sie geben
also ein
hundertprozentiges Vertrauen Wenn Sie jedoch ein ähnliches Bild
verwenden, aber nicht exakt
dasselbe wie beim Training, wird es
in diesem Fall nicht funktionieren. Okay? Es wird also perfekt für die
Trainingsbilder funktionieren, aber es wird nicht
für Testbilder
oder Bilder für die tatsächliche Nutzung funktionieren. Dafür müssen wir diese Überanpassung
reduzieren. Okay? Es gibt also verschiedene
Ansätze zur Datenvergrößerung Datenerweiterung in diesem
Sinne, sagen wir zum Beispiel, wenn Sie das
Modell mit ein paar Bildern trainieren wollen,
Datenaugmentation in diesem Sinne, bedeutet das,
das Bild umzudrehen, ein Spiegelbild zu
erzeugen, die Farben auf diese Weise zu
ändern Wir können irgendeine Art
von Verarbeitung durchführen und dann können wir die Daten für
das Datentraining erweitern Mit diesem erweiterten Datensatz können
wir das Modell trainieren, um zu vermeiden , dass der Grund für die
Überanpassung darin besteht wir mehr als nur versteckte Schichten
oder die Anzahl der Neuronen
aufzeichnen Die übermäßige Nutzung von Neuronen führt
auch zu einer Überanpassung. Okay? Und was
ist dann unzureichend? unzureichende Anpassung liegt vor
, wenn ein A-Modell nicht in der Lage ist, aussagekräftige
Muster aus den Trainingsdaten zu lernen , was zu einer schlechten Leistung
sowohl beim
Trainingssatz als auch bei neuen Daten führt sowohl beim
Trainingssatz als auch bei neuen Dies ist der Fall, wenn das
Modell zu einfach ist oder nicht genügend Trainingszeit zur
Erfassung der zugrunde liegenden
Zusammenhänge zur Erfassung der zugrunde liegenden
Zusammenhänge Es ist, als ob ein Student zu wenig
lernt und sowohl mit der
Praxis als auch mit dem Feldtest zu kämpfen hat. unzureichende Anpassung kann behoben werden indem ein komplexeres Modell verwendet, Trainingszeit verlängert oder relevantere
Merkmale in den Daten
bereitgestellt In diesem Sinne kann das Modell nicht einmal für
die Trainingsdaten selbst richtig
funktionieren Das bedeutet, dass die Daten
nicht so gut sind und
das Modell nicht in
der Lage ist, sie richtig zu
verarbeiten,
und dass das Modell nicht in
der Lage ist , sie richtig zu
verarbeiten, die
Trainingszeit nicht ausreicht. In diesem Fall müssen wir ein gutes Modell
verwenden, komplexes Modell, und wir
müssen das Training erhöhen. Und die Trainingsdaten, du musst mehr Funktionen hinzufügen. Bei den
Trainingsdaten in dem Sinne , dass der Datensatz
Merkmale und Beschriftungen enthalten wird. Ich erzähle nur ein einfaches Beispiel. In diesem Fall sollte die Anzahl
der Merkmale oder die Qualität
der Merkmale erhöht werden, um eine unzureichende Anpassung
zu vermeiden Was ist dann Transferlernen? Beim Transferlernen wird
ein A-Modell, das für
eine Aufgabe trainiert wurde , für
eine andere ähnliche Aufgabe wiederverwendet. Beispielsweise kann ein Modell, das anhand
allgemeiner Bilder trainiert wurde , fein
abgestimmt werden , um medizinische Scans zu identifizieren. Kann uns helfen,
viel Zeit zu sparen. Wir müssen den
Regen nicht noch einmal vollständig aushalten. Was sind dann Einbettungen in KI? Einbettungen sind numerische
Darstellungen von Wörtern, Bildern
oder anderen Daten, die KI-Modellen
helfen, Beziehungen und
Ähnlichkeiten zwischen
ihnen zu verstehen Sie wandeln komplexe
Informationen auf eine Art und Weise in dichte Vektoren um
, die ihre Bedeutung bewahrt In einem Modell zur Worteinbettung wird
das Wort König beispielsweise einem Vektor zugeordnet
, der der Königin sehr nahe kommt und so deren
semantische Beziehung wiedergibt Einbettungen werden häufig in
Empfehlungssystemen zur Verarbeitung
natürlicher Sprache und
Bilderkennung verwendet Empfehlungssystemen zur Verarbeitung
natürlicher Sprache und , um AF
zu verbessern. Normalerweise speichern
wir die Es ist sehr nützlich
beim Abrufen von Rag der erweiterten Generation Es ist eine semantische Bedeutung. Es dient dazu, die
semantische Bedeutung beizubehalten. Es wird auch für die
semantische Suche nützlich sein. Was ist eine Vektordatenbank? Eine Vektordatenbank ist eine
spezialisierte
Datenbank zum Speichern und Suchen. Ermöglicht KI-Modellen, schnell ähnliche Bilder,
Dokumente oder Texte zu
finden, indem sie
Vektoren auf der Grundlage ihrer
mathematischen Nähe vergleichen , was einer ähnlichen
Kosinusähnlichkeit entspricht Dies macht es ideal für Aufgaben
wie Bilderkennung, Empfehlungssysteme
und semantische Suche Beliebte Vektordatenbanken verbessern die von
Facebook bereitgestellten
Käufe, Pine Ce, verwalten die Vektordatenbank und
Chroma TV. Es ist Open Source Selbst wenn wir es
vor Ort verwenden können , ist es Natural
Language Processing, NLP NLP ist ein Zweig von AA
, der es Computern ermöglicht,
menschliche
Sprache zu verstehen, zu
interpretieren und zu erzeugen Es unterstützt Anwendungen wie
Chatbars, Sprachassistenz, C Alexa, Sprachübersetzungen wie Google Translate
und Stimmungsanalysen NLP kombiniert Linguistik und
maschinelles Lernen, um
AA dabei zu helfen, Text und Sprache auf eine
Weise zu verarbeiten , die sich für Menschen
natürlich anfühlt Wann immer wir eine
Anwendung wie CharBT verwenden, können
wir Fragen auf
natürliche Weise stellen , indem wir
Sprachen wie Englisch verwenden Ist beaufsichtigtes Lernen? Überwachtes Lernen ist eine Form
des maschinellen Lernens, bei ein A-Modell
anhand von beschrifteten Daten trainiert wird,
was bedeutet, dass jede Eingabe
eine bekannte Zeichenausgabe hat Das Modell lernt, indem es
Eingaben
den richtigen Bezeichnungen zuordnet und seine
Vorhersagen im Laufe der Zeit
verbessert ein
AA beispielsweise darauf trainiert wird, Katzen und
Hunde zu erkennen , müssen Bilder angezeigt werden, die als Katze oder Hund
gekennzeichnet sind, damit es lernen kann,
neue Bilder genau zu klassifizieren Überwachtes Lernen wird
häufig bei der Bilderkennung, Spracherkennung
und Spam-Erkennung eingesetzt. Fast alle traditionellen
maschinellen Lernverfahren verwenden diesen Ansatz Okay. Also müssen wir die Daten
einfach beschriften. Und dann müssen wir diese beschrifteten Daten
verwenden,
um das Modell zu trainieren. Was ist unbeaufsichtigtes Lernen? Unüberwachtes Lernen ist eine Form des maschinellen Lernens
, bei der ein A-Modell Muster, Strukturen
und Daten ohne eindeutige Antworten
entdeckt und Daten Anstatt aus
vordefinierten Kategorien zu lernen, identifiziert
das Modell verborgene
Zusammenhänge, wie z. B. die
Gruppierung ähnlicher Artikel wie Gruppierung ähnlicher Artikel bei der
Kundensegmentierung.
Sie können
Kunden anhand ihres
Kaufverhaltens gruppieren, ohne dass Ihnen
gesagt wird, zu welcher Gruppe ohne dass Ihnen
gesagt wird , zu welcher Unüberwachtes
Lernen wird häufig Erkennung von Anomalien, bei
Empfehlungssystemen
und bei der Datenkomprimierung
eingesetzt Empfehlungssystemen Im Fall von
unbeaufsichtigtem Lernen müssen
wir die Bezeichnungen nicht
spezifizieren Es wird die
Muster automatisch finden. Ist Reinforcement-Learning? Reinforcement
Learning, RL, ist eine Form des maschinellen Lernens,
bei der ein AA durch
Versuch und Irrtum lernt und für
gute Handlungen belohnt und für Fehler
Strafen
erhält gute Handlungen belohnt und für Fehler
Strafen Im Laufe der Zeit optimiert es
seine Entscheidungen, um die
langfristigen Vorteile zu maximieren RL ist weit verbreitet in der
Robotik, beim Spielen von
AA-Spielen, Alpha-Go,
fahrenden Autos und personalisierten
Empfehlungen Im Grunde ist es so, Feedback
zu
geben, oder? Wenn es sich richtig verhält,
wird es belohnt. Andernfalls Strafen für
Fehler. Was ist ALM? LLM, das ist eine sehr wichtige Sache. Okay. Es ist ein großes
Sprachmodell. Was ist Erklärbarkeit AA? Erklärbarkeit bezieht sich darauf, wie wir verstehen und interpretieren
können Einige A-Modelle sind
wie Blackboxen Entscheidungen ohne
klare Erklärungen getroffen werden, während andere
Einblicke in ihre Argumentation bieten Dies wird aus
ethischer
und
regulatorischer Sicht immer aus
ethischer
und
regulatorischer Sicht ethischer
und
regulatorischer Es ist wichtig zu wissen, wie die VA intern
Entscheidungen über den Output trifft. Warum sie diese Informationen
weitergibt. Aber es wird
einen Kompromiss geben. Wenn Sie sich
auf diese Sache konzentrieren, die Effizienz
oder Effektivität der kann
die Effizienz
oder Effektivität der
tatsächlichen Arbeit beeinträchtigt werden.
Was ist Deep Learning? Deep Learning ist ein Teilbereich des maschinellen Lernens, bei dem
künstliche neuronale Netze mit
mehreren Schichten verwendet künstliche neuronale Netze mit werden, um Daten zu verarbeiten und
komplexe Muster zu erlernen Es zeichnet sich durch Aufgaben wie
Bilderkennung, Sprachverarbeitung und das Verstehen natürlicher
Sprache aus Deep Learning unterstützt fortschrittliche KI-Anwendungen wie
Gesichtserkennung, selbstfahrende Autos,
Chatbots,
Chat-GPT und medizinische
Bildanalyse Deep Learning ist ein
neuronales Netzwerk. Was ist ein großes
Kontextfenster in AA? großes Kontextfenster bedeutet, dass sich
ein A-Modell mehr Wörter in einer
Konversation oder einem Dokument merken und diese gleichzeitig
verarbeiten kann. Chatboard mit
einem kleinen Fenster kann beispielsweise einem kleinen Fenster kann frühere Teile
Ihrer Diskussion
vergessen, während ein Chatboard mit einem großen Fenster Kontext besser beibehalten
kann , Wenn Sie also
mit ChargePT sprechen wird
es sich auch an Ihre
vorherigen Fragen erinnern , oder? Wenn Sie also eine
Frage zu Ihrem Computer stellen, können
Sie weitere Fragen
dazu stellen , ohne
den Computer zu durchsuchen, oder? Ist in der Lage,
Ihre Frage
richtig zu erkennen , weil es in der
Lage ist , das Kontextfenster beizubehalten. Wenn es sich also um ein großes
Kontextfenster
handelt, bedeutet das, dass viele
frühere Fragen
oder Diskussionen darin gespeichert werden , oder? Wann immer LLM angegeben wird, haben sie sich an dieses
Kontextfenster gewöhnt
, damit wir ihre
Probleme verstehen können. Was ist Few Shot? Durch kurzes Lernen kann AA anhand von
sehr wenigen Beispielen
eine neue Aufgabe erlernen . Wenn Sie zum Beispiel ein AA zeigen, also nur ein paar beschriftete
Bilder eines neuen Objekts, kann
es
ohne umfangreiches Training ähnliche Bilder erkennen. Wenn wir nur wenig lernen, müssen
wir viel Training durchführen. Nur ein paar
Beispiele zu zeigen, reicht aus. Selbst im Falle von
Prompt-Engineering, für die Verwendung von Char GPT, wir
etwas in der
Eingabeaufforderung selbst können wir
etwas in der
Eingabeaufforderung selbst einige Beispiele geben und dann Fragen stellen Meist werden wir in der Lage sein, unsere Fragen
zu beantworten. Was ist multimodales A? Multimodal EA kann verschiedene
Datentypen wie Text,
Bilder und Audio zusammen verarbeiten und
verstehen und Zum Beispiel kann Char GBT four sowohl Text als auch
Bilder in einer Konversation
analysieren GPT four ist ein multimodales Modell. Wir werden in der Lage sein, beide
Texte zu bearbeiten. Wir können Fragen stellen. Wir können Fragen
per PCH stellen, wir können darum bitten, Bilder zu generieren, wir können das Bild
hochladen und
wir können Fragen stellen Auf dem Bild. Was
ist Computer Vision? Computer Vision ist
ein AA-Bereich, der Maschinen
hilft, Bilder und Videos zu interpretieren und
zu analysieren. Es wird in Anwendungen
wie Gesichtserkennung, U-Boot-Fahren
und medizinischen Bildern eingesetzt. Es ist auch ein wichtiger Bereich, insbesondere bei selbstfahrenden Autos. Es spielt eine wichtige Rolle,
und auch die medizinische Bildgebung ist ein wachsendes Feld. Computer-Vision-Techniken schneiden bei der Identifizierung
der Krankheiten anhand
der Scanbilder besser ab als die Radiologen die Was ist dann Vortraining
versus Feinabstimmung? Beim Training lernt ein Einsteiger
Allgemeinwissen aus einem riesigen Datensatz,
bevor es für
eine bestimmte Aufgabe angepasst wird. Feinabstimmung ist
der Prozess, bei dem das A anhand
eines kleineren, spezialisierten Datensatzes weiter trainiert eines kleineren, spezialisierten Datensatzes , um die Leistung
bei einer bestimmten Aufgabe zu verbessern. Vor dem Training in diesem Sinne können
wir, sofern Bilderkennungsmodell vorhanden ist, ein
Bilderkennungsmodell vorhanden ist, es so anpassen das medizinische Bild
spezifisch identifiziert wird. Es ist eine gute Möglichkeit, beide Dinge in
Einklang zu bringen. Das Vortraining dieses riesigen
Datensatzes wird in gewisser Weise helfen, und die Eingrenzung unseres
spezifischen Bereichs mit
einem Feinabstimmungsdatensatz wird in gewisser Hinsicht
hilfreich sein Es kombiniert die Kraft
beider Dinge. Was ist Datenerweiterung in AA? Datenerweiterung ist
eine Technik der der Datensatz durch
Änderung vorhandener Daten
erweitert Bei der
Bilderkennung
hilft das Umdrehen,
Drehen oder Ändern der
Helligkeit von Bildern AA-Modellen beispielsweise dabei , besser zu planen,
ohne dass neue Wenn Sie das
Yolo-Modelltraining beobachten, können
Sie dieses Ding finden Selbst wenn Sie
für das Training etwa zehn Bilder verwenden, können Sie, wenn Sie die vom Yolo-Modell
erstellten Dateien durchgehen, viele Bilder finden Einige von ihnen sind umgedreht, andere sind
Spiegelbilder, gedrehte Bilder, okay also nur
sehr wenige Daten vorliegen, wird
der Datenerweiterungsprozess den Datensatz vergrößern Was ist die letzte
Funktion in AAA? letzte Funktion
misst, wie weit die As-Vorhersagen von
den richtigen Antworten entfernt sind. A-Modelle sind lediglich das
Lernen, das auf
der letzten Funktion basiert , um die
Genauigkeit zu verbessern. Es ist eine wichtige Sache. Okay? Wenn wir also die Leistung oder Genauigkeit
des Modells
messen, gibt
die letzte Funktion Details über
den
Fehler an, im Grunde genommen, dass das Modell
auf der Grundlage dieses Werts seine Gewichtung ändert. Was ist ein Gradientenabstieg? Gradient Descent ist ein
Optimierungsalgorithmus , der A-Modelle dabei unterstützt,
ihre internen Einstellungen, d.
h. Gewichtungen, anzupassen , um
Fehler zu minimieren und das
Lernen im Laufe der Zeit zu verbessern. Es ist etwas Ähnliches wie
der Backpropon-Algorithmus, oder? Was ist Modelldrift? Modelldrift tritt auf, wenn Genauigkeit
eines A-Modells im Laufe der Zeit
abnimmt weil sich die realen Daten, auf die es trifft, gegenüber
den Daten, auf denen es trainiert wurde, geändert haben. Dies ist häufig
bei der Betrugserkennung
und im Empfehlungssystem der Fall . Es ist eine Abweichung von der
Modellausgabe, okay? Es liegt an
der Art der Nutzung. also im Fall von
Empfehlungssystemen Wenn also im Fall von
Empfehlungssystemen die Zuschauer auf eine andere Art und
Weise betrachten, dann ist das
zuvor trainierte Modell, das vom
Modell ausgegeben wurde, für dieses
neue Szenario offensichtlich nicht geeignet, oder? Es wird also als Modelldrift bezeichnet. Wofür ist katastrophal? Geschichten werden vergessen,
wenn ein A-Modell, das auf
neuen Daten trainiert wurde , vergisst, was aus früheren Daten
gelernt Dies ist häufig bei
D-Planungsmodellen der Fall, in denen Wissen aus der Vergangenheit
nicht effektiv gespeichert Wenn Sie die Daten für Katzen trainieren, dann wird sie nach einiger Zeit, wenn
Sie sie für Hunde trainieren, die Identifizierung
vergessen , sodass wir
verschiedene Ansätze verfolgen können. Wann immer wir neue Daten trainieren, können wir
vielleicht auch mit
den vorherigen Daten trainieren. Da gibt es viele verschiedene
Ansätze. Okay? Was ist erklärbares AA Es geht darum,
Einzelheiten darüber zu geben, wie das Modell funktioniert und warum es das
so herausgibt Es wird dazu beitragen, dieses
Vertrauen und die Rechenschaftspflicht zu verbessern. Was ist verstärkendes Lernen
mit menschlichem Feedback R? Es ist eine Technik, bei der
A mithilfe von
menschlichem Feedback trainiert wird , um seine Reaktionen zu
verbessern. Auf diese Weise werden Modelle
wie sgpTrfNE darauf ausgelegt, hilfreicher genauer zu sein Wann immer Sie GBT verwenden, werden
Sie die Tasten „Daumen hoch“ und „Daumen
runter“ haben Indem Sie auf diese Schaltflächen klicken, geben
Sie Ihr Feedback Es ist Reinforcement-Learning
mit menschlichem Feedback. Was ist Lernen auf Bundesebene? Federate Learning ist eine auf den Datenschutz
ausgerichtete Trainingsmethode. Daten verbleiben auf den Geräten der Benutzer anstatt an einen zentralen Server gesendet
zu Ein Modell lernt aus
verteilten Daten ohne die Privatsphäre der
Benutzer zu gefährden. Es speichert Trainingsdaten
auf dem Gerät des Benutzers selbst. Anstatt es zu zentralisieren, behalten
Sie
den Verteiler als Transformator.
Ein Transformator
ist eine Deep-Learning-Modellarchitektur, die darauf ausgelegt ist, umfangreiche
Sprachverarbeitungsaufgaben zu bewältigen Modelle wie GPT, Burt und DFI verwenden Transformatoren, um Text zu
verstehen und zu generieren Meist sind es
Transformer-Modelle,
weil sie in der Lage sind, den gesamten Text
gleichzeitig zu verarbeiten Ist aber ein Wissensgraph. Ein Analogiediagramm ist eine
strukturierte Information , die Konzepte
und Beziehungen miteinander verbindet Google-Suche und Chatboards
verwenden Wissensdiagramme, um relevante Antworten zu
liefern, indem verwandte Themen verknüpft werden Es verbindet also die
Informationen, den Knoten, diese Art des Abrufs
erweitert die RAG ist ein A-Ansatz , der die
Antworten verbessert, indem
relevante Informationen
vor der Generierung aus einer
externen Datenbank abgerufen relevante Informationen
vor der Generierung aus einer externen Datenbank Er hilft Chatbots dabei,
genauere und aktuellere Antworten zu
geben genauere und aktuellere Antworten zu Im Fall von RAG können unsere
Eingabeaufforderungen an die LLMs senden, wir nicht nur unsere
Eingabeaufforderungen an die LLMs senden,
sondern auch
einige externe Daten zusammen mit den Dafür funktioniert dieses
Retriever-Modell also. Dafür müssen wir Vektordatenbanken wie
Chroma DBR Pine mit diesem Setup verwenden , der Rag wird die Genauigkeit
verbessern können Was ist ein A-Beschleuniger? A-Beschleuniger wie GPS und TPS sind
spezielle Hardware , die AA-Berechnungen
beschleunigt und so Training und
Inferenz Training und
Inferenz Es ist hardwarebezogen,
sodass A-Training und
Inferenz schneller funktionieren können.
Was ist AGAA AGA führt A-Modelle direkt auf lokalen Geräten wie
Smartphones und Kameras aus, anstatt
sich auf Cloud-Server zu verlassen Dies ermöglicht eine schnellere
Verarbeitung und den Datenschutz. Im Fall von GAA laufen
die Modelle auf
den Mobiltelefonen selbst Was ist Anti-AA? Quantation reduziert die Größe von AA-Modellen durch die Verwendung von Zahlen mit niedriger
Genauigkeit, wodurch sie schneller
und effizienter laufen, insbesondere auf H-Geräten. Die Quantifizierung
trägt dazu bei,
diese GA zu erreichen . Was sind
Parameter in A-Modellen Parameter sind die
internen Variablen
eines A-Modells , die während des Trainings
gelernt werden Sie definieren, wie das Modell Eingabedaten
verarbeitet
, um Vorhersagen zu treffen. In einem Nurnaltwork gehören zu den
Parametern beispielsweise Gewichte und
Verzerrungen, gehören zu den
Parametern beispielsweise Gewichte und Verzerrungen Je mehr Parameter ein Modell hat, desto komplexer Wenn Sie von Modellen
mit Milliarden von
Parametern hören , z. B. GPD 3 mit 175
Milliarden Parametern, bedeutet das, dass das Modell über
eine große Anzahl
interner Variablen verfügt , sodass es
komplizierte Muster in Daten erfassen Wenn es also mehr Parameter gibt, kann es besser funktionieren Was ist Präzision beim
maschinellen Lernen? Präzision ist eine Metrik, mit der die Leistung
eines Klassifikationsmodells
bewertet wird . Sie misst die Genauigkeit
der vom Modell
getroffenen Pasitätsvorhersagen Diese Präzisions- und
Erinnerungswerte dieser
Art von Messungen sind also Erinnerungswerte dieser
Art von Messungen sehr wichtig Diese Metriken sind sehr nützlich Qualität des Modells
einzuschätzen Präzision ist die Genauigkeit
bei der Angabe der Genauigkeit. Wenn Ihr Modell
100 E-Mails als
Spam voraussagt und die 90 davon tatsächlich Spam
sind, beträgt
die Genauigkeit 90 Prozent Die Genauigkeit des Formulars
entspricht echten positiven Ergebnissen. Das heißt, 90 von ihnen sind
tatsächlich Spam, 90 wurden durch echte positive und
falsch positive Ergebnisse ersetzt. Genauigkeit von 90 bis 190 Prozent. Hohe Präzision
bedeutet, dass das Modell Fehlalarme
gut vermeiden kann. Der Rückruf wird auch Sensitivität
genannt. Es misst, wie gut Ihr Modell alle
relevanten positiven Fälle identifiziert. Wenn
ein
Datensatz beispielsweise 100 Spam-E-Mails enthält und das Modell 80 davon
korrekt identifiziert, beträgt der Rückruf 80 Seiten. hoher Erinnerungswert bedeutet, dass das Modell die meisten
positiven Fälle
gut finden kann. Präzision steht die Genauigkeit
der positiven Vorhersagen im Mittelpunkt . Das bedeutet,
falsch positive Ergebnisse zu vermeiden. Recall konzentriert sich darauf, so
viele postatische Fälle wie möglich zu erfassen und falsch negative
Ergebnisse zu vermeiden Grundsätzlich sensitives
H. Bei einem medizinischen Test bedeutet
hohe Präzision, dass die meisten positiven
Testergebnisse korrekt sind Ein hoher
Erinnerungswert bedeutet, dass die
meisten tatsächlichen Krankheitsfälle erkannt werden. Oft gibt es einen
Kompromiss zwischen Präzision und Rückruf, und das richtige Gleichgewicht
hängt vom Anwendungsfall ab. Was ist der Fen-Score? Der FN-Score ist eine einzige Metrik , die Präzision
und Erinnerungsfähigkeit kombiniert. Es ist das harmonische
Mittel der beiden und ist nützlich, wenn Sie beide Metriken ausgleichen
möchten Der Zaun reicht von 0 bis 1 , wobei eins das
bestmögliche Ergebnis ist Er wird häufig bei
Klassifizierungsaufgaben verwendet, insbesondere wenn der
Datensatz unausgewogen ist Was ist die Konfusionsmatrix? Die Son-Matrix ist eine Tabelle, mit der die Leistung
eines Klassifikationsmodells
bewertet wird . Im Grunde hilft
sie Berechnung von Kennzahlen
wie Präzision, Erinnerungsvermögen und Genauigkeit. Okay? Genauigkeit misst
den Prozentsatz der korrekten Vorhersagen, die das Modell
getroffen hat. Genauigkeit —
wahre positive Werte
plus echte Negative —
wären also im Grunde genommen Gesamtprognosen Genauigkeit ist zwar
eine nützliche Kennzahl, kann
aber bei unausgewogenen Datensätzen
irreführend sein Zum Beispiel, wenn 90 Prozent der Daten
zu einer Klasse gehören In solchen Fällen
sind Precision, Recall und A Fun Score aussagekräftiger. Was ist eine letzte Funktion? Eine letzte Funktion misst,
wie gut ein A-Modell abschneidet, indem sie
seine Vorhersagen
mit den tatsächlichen Werten vergleicht . Also im Grunde ist es ein Fehler,
9. Lokale Untertiteldateien mit dem Whisper-Modell von openAI erstellen: In diesem Video wird
die Verwendung von KI anhand eines
sehr einfachen Beispiels erklärt die Verwendung von KI anhand eines
sehr einfachen Beispiels Es dient zum Erstellen von
Untertiteldateien und Untertiteldateien. Normalerweise können wir, wenn
wir uns Videos auf YouTube oder anderen
Videoplattformen ansehen, YouTube oder anderen
Videoplattformen ansehen, den Text lesen,
während
wir uns das Video ansehen, oder
? Transkribierter Text Es wird sehr nützlich sein, falls der Aufstieg des Sprechers
nicht verständlich ist, oder? Aber um diese Funktion bereitzustellen, muss
der Videoproduzent viel Zeit für
die Erstellung der Untertiteldateien aufwenden, okay? Aber heutzutage generieren Plattformen
wie YouTube automatisch
Untertitel, ich meine Untertitel In einigen Fällen ist
es jedoch nicht möglich,
Plattformen wie YouTube zu verwenden Wie ich in
diesem Blogbeitrag erklärt
habe, habe ich bereits ein Video erstellt
und auf YouTube hochgeladen Anschließend habe ich
etwas für das Hochladen
auf eine andere Plattform geändert etwas für das Hochladen
auf eine andere Plattform Aber wenn ich in diesem Fall dasselbe Video
auf YouTube
hochlade, um Untertitel zu erhalten, betrachtest
du
es als dupliziertes Video, und es wird ein Problem sein, okay? In diesem Fall habe ich also andere Optionen untersucht. Viele andere Dinge
sind da, okay. Aber sie verlangen Geld. Sie bieten also kostenlose Option für ein
paar Minuten Videos. Aber für längere Videos, längere Videos, verlangen
sie Geld Okay? Nochmal, ich
muss das Video dort hochladen, dass die Dinge da
sind, oder? Also habe ich nach A-Modellen gesucht, ob es irgendwelche A-Modelle gibt. Und ich habe festgestellt, dass
dieses Whisper-Modell von Open AA bereitgestellt wird Es ist ein kostenloses
Open-Source-Modell, okay? Es ist auch ein sehr einfaches Modell. Ich habe mit vielen Daten trainiert. Und das ist wirklich sehr nützlich. Okay. Ich war überrascht von der Qualität
der Transkription Okay? Wir können es auf unserem
lokalen Computer selbst machen. Sobald wir das Video erstellt haben, müssen
wir nur noch das Modell laden
und dann
die Transkription aufrufen, indem wir unsere
Datei übergeben Okay? Falls Sie also EMP für
diese Art von Videodatei haben, müssen wir sie
zunächst in eine Wave-Datei
konvertieren Okay? Zu diesem Zweck können
wir Tools wie
FFPE verwenden, diese Art von Tools Wir können die Videodatei
in eine Audiodatei konvertieren, okay? Danach können wir einfach einen Python-Code
erstellen. Dieser pH-Wert im Transkript
hat das verursacht, okay? Ähm, also müssen wir
das Whisper-Modell eingeben. Angenommen, wenn Sie es zum ersten Mal
verwenden, müssen
Sie
es mit dem PIP-Befehl
Pip install, open A Whisper installieren Okay? Sobald Sie diesen Whisper
installiert haben, können Sie ihn verwenden Geben Sie einfach das Flüstern ein und laden
Sie einfach das Basismodell. Okay? Sobald Sie dieses Modell
erstellt haben, können Sie einfach
die Transkriptionsfunktion aufrufen , um diese Audiodatei zu
transkribieren Wir haben diese
Audiodatei bereits mit FF Impact erstellt, oder? Also mit dieser Audiodatei müssen
wir das einfach Transcribe nennen
, okay? Also wird es das Audio transkribieren
, okay? Ich meine, es wird den Sprachinhalt in
Textinhalt umwandeln , okay Aber im Fall von Untertiteln müssen
wir diese Zeit
auch codieren, oder?
Startzeit und Uhrzeit. Dann ist es nur
wirksam, wenn wir den Text lesen, während wir uns das Video
ansehen, oder? Zu diesem Zweck gibt es also viele
verschiedene Modelle. Eines der bekanntesten ist
das Punkt-SRT-Format. Ein anderes ist das Dot VTT-Modell
. Ich meine, Format Jeder von ihnen hat ein paar
kleine Unterschiede, okay? Plattformen akzeptieren also meistens
DTT-Dateien, aber einige Plattformen akzeptieren
nur das Punkt-VTT-Format, okay? Dieser ist also für die
Erstellung von DTST gedacht. Also holen wir uns einfach
diesen Text und öffnen DtrtFle und erstellen
dieses DartMeendt und schreiben es in diesem Okay. Es ist eine sehr einfache Sache. Lassen Sie uns das jetzt sehen,
indem wir es ausprobieren. Ich habe eine Audiodatei, diese hier, und das sind die Dateien zum
Transkribieren und für die
Konvertierung in Python-Code, okay?
Es ist sehr einfach. Wir erstellen einfach das Modell, okay, aus dem Basismodell. Und dann rufe ich einfach
dieses Protokoll an, okay? Nur damit wir es von hier aus
anrufen können. Okay. Ich führe gerade dieses Transkript aus, das ich in Python
für diese Audio-Punktwelle codiere , okay? Es wird also viel Zeit in Anspruch
nehmen, da es sich um eine
sehr lange Datei Mein Computer hat keine GPU. Deshalb gibt es
diese Warnungen aus, okay? Wenn Sie eine GPU haben, wird es
vielleicht ein Mast sein. Jetzt können wir also verstehen, wie
die EAA wirklich funktioniert, oder? Wir machen gar nichts Wir geben nur
dieses Flüstern ein. Vorher
installieren wir nur PIP install. Es ist keine riesige Datei. Es kann lokal
auf jeden kleinen Computer geladen werden, auch
auf Computer mit niedriger Konfiguration. Okay. Vergleichsweise ist es auch besser
als alle
Cloud-Plattformen, okay? Sie können es also für eine beliebige Anzahl
von Dateien ohne
Einschränkungen verwenden . Okay, falls Sie sich
für Cloud flotfm entscheiden, haben
sie unterschiedliche Pläne,
richtig, also
müssen wir das kaufen Okay. Aber wenn Sie wissen,
wie man es lokal benutzt, ist das eine sehr einfache Sache. Selbst bei diesem Code
können Sie Char GPT einfach bitten, einen Code für die Verwendung von
Whisper für Ihre Zwecke
zu schreiben Okay. Nehmen wir an, wenn Sie die Ausgabe in einem anderen Format
haben möchten, können
Sie diesen
Code einfach nach HarGPT kopieren und Sie bitten den Code
zu aktualisieren, um
das gewünschte Format zu erhalten, okay? Anfangs habe ich
versucht, die Dotty-Datei mit GPT selbst zu erstellen, ich meine, in eine
WTT-Datei zu
konvertieren Dieses Format wird jedoch von einigen
Plattformen nicht akzeptiert. Besser, ich habe einfach
das gewünschte Ausgabeformat angegeben und HGPT gebeten, diesen Code zu
erstellen Also hat es diesen Python-Code
für die Konvertierung des Formats erstellt. Okay? Nachdem ich diesen Code verwendet hatte, konnte
ich
das TT CapsEnfle verwenden Aber das Wichtigste ist, dass die
Qualität wirklich gut ist. Okay? Normalerweise spreche ich kein Englisch als
Muttersprache, okay. Oder sogar YouTube wird
Schwierigkeiten haben,
meinen Akzent für die
Transkription zu verstehen meinen Akzent für die
Transkription zu Immer wenn es
automatisch den Transkriptions- oder
Untertitelinhalt für mein Video generiert , habe ich früher viel Zeit
damit verbracht, den Text zu korrigieren Außerdem muss ich Interpunktionen manuell
hinzufügen. Komm schon, so. Okay,
dann wird es nur einfach sein, den Inhalt zu lesen, oder? YouTube wird solche
Sachen nicht machen. Aber ich war wirklich überrascht, das Ergebnis
dieses Flüster-Dings zu sehen. Es ist in der Lage, das Konzept zu
verstehen und entsprechend die Interpunktion
hinzuzufügen Okay, es ist wirklich ein
Ding und es entfernt unnötige
Füllwörter, wie, okay, also so Aber die USA haben
sie alle aufgenommen, ich musste
manuell Zeit aufwenden, um diese Dinge zu
entfernen Okay? Also ein wirklich gutes Werkzeug, okay? Und außerdem ist es
kostenlos und Open Source. Wir können es vor
Ort nutzen und haben viele
Vorteile : Da wir es programmgesteuert machen
können, können
wir
die Dinge automatisieren. Okay. Angenommen, wir haben 100 Dateien, wir können einfach einen Code erstellen, um sie alle
nacheinander ohne manuelles Eingreifen zu
konvertieren . Okay? Das ist also die Fähigkeit AAA
zu verstehen oder etwas darüber zu
lernen. Nehmen wir an, Sie wissen, wie
man dieses Flüstermodell benutzt, dann haben Sie eine Menge
Vorteile, oder? Das heißt, das ist ein Beispiel. In ähnlicher Weise gibt es viele Modelle, Open-Source-Modelle und
vortrainierte Modelle. Okay. Das Einzige ist also, dass
wir das Modell nehmen und die passende
Funktion für
unseren Zweck oder
geeignete Modelle
finden müssen. Wenn es Parameter gibt, müssen
wir diesen verstehen. Das ist der Teil, den
wir lernen müssen. Als Entwickler müssen wir
nicht mehr ausgeben, um zu verstehen,
wie es funktioniert. Es ist gut, das zur Kenntnis zu nehmen,
aber ich sage nur, als Anfänger können Sie
einfach das Modell nehmen, okay, und verstehen,
wie man es benutzt. Dann fangen Sie einfach an, es zu benutzen. Wann immer Sie auf
Schwierigkeiten stoßen oder wenn Sie sich weiter verbessern
möchten, können Sie weiter gehen,
um zu verstehen, wie es gut funktioniert und wie Sie es
weiter verbessern können. Okay. Also jetzt ist es abgeschlossen. Lass mich den Ordner überprüfen. Okay, ich habe diesen
Untertitel SatiatFle erstellt. Also wurde es geschaffen, oder?
Aber diese Tatsache, dass die Zeitkodierung das Format
ist, unterscheidet sich von Punkt-VTT, okay? Zu diesem Zweck werde ich es
jetzt konvertieren lassen Also
, wenn du dir den Untertiteltext ansiehst, ist
es wirklich, als ob die Qualität wirklich gut
ist, oder? Es hat alles mit Interpunktion hinzugefügt. Okay. Lassen Sie uns jetzt diese Konvertierung
ausführen. Es ist sehr schnell,
innerhalb von Sekundenbruchteilen, es ist abgeschlossen, oder? Es hat die Zeitformate konvertiert und andere
Rekorddaten hinzugefügt, okay? So einfach.
Jetzt können wir es auf einer Plattform verwenden, die
von diesem Format unterstützt wird. Okay? Ich erzähle es nur
als Beispiel, okay? Es ist sehr einfach, aber
es könnte viel Zeit sparen. Wenn ich zum Beispiel
Ihren Kurs mit einer Stunde vorbereite , muss
ich meistens mehr
als 2 Stunden aufwenden, um diese Art von
Zeitkodierung des Transkripts zu
erstellen Selbst wenn ich das Transkript
abtippen werde, wird es so sein, als würde es viele Stunden dauern, oder In diesem Fall
hilft es also, Zeit zu sparen, indem die Sprache
automatisch in Text umgewandelt
wird und die Zeitkodierung automatisch durchgeführt wird, oder? Auf diese Weise
helfen uns A-Modelle ,
viel Zeit zu sparen, okay? Es ist
ein Beispiel, viele Dinge. Es gibt viele Modelle.
Im Fall von Computer Vision können
wir uns für das
Yolo-Modell entscheiden. Okay. Und viele vorgetäuschte Modelle machen auch die
Stimmungsanalyse dafür Wenn Sie sich für eine Phase entscheiden, sogar in Cagle, hat sogar Robo Flow
auch einige Modelle,
wie Datensatzmodelle sogar in Cagle, hat sogar Robo Flow
auch einige Modelle,
wie Datensatzmodelle.
Alles ist da Wenn Sie also
mit diesen Dingen vertraut sind und
sie regelmäßig überprüfen, können
Sie
viele Informationen finden. Ohne ein
gewisses Wissen über EAA zu haben, können
Sie viele
EA-Anwendungen erstellen ,
nützliche Anwendungen Langfristig können Sie Ihr Wissen darüber,
wie es funktioniert,
verbessern wie es funktioniert Aber um damit zu beginnen,
KI in Ihrer Programmierung zu verwenden, müssen
Sie nicht so viel Erfahrung
damit die KI-Modelle zu verstehen, okay? Zuallererst
sollten wir in der Lage sein, das KI-Modell zu verwenden, gibt
bereits verfügbare AE-Modelle. Okay? Es wird
sehr einfach sein, okay? Du musst
das Paket installieren und das Modell
laden und
es dann ganz einfach benutzen, okay?
10. Training eines einfachen TensorFlow-KI-Modells mit Google Colab: In diesem Video
erkläre ich das Trainieren
eines A-Modells mithilfe von Datensätzen und erkläre
dann, wie das trainierte Modell
verwendet wird Ich versuche
es sehr einfach zu halten. Ich möchte hier nicht näher darauf eingehen
, weil ich möchte, dass der Anfänger den Überblick über
das
Training eines A-Modells kennenlernt . Ich möchte hier keine
kleinen Details angeben, okay? Diese Website ist also
tensorflow.org. TensorFlow ist ein berühmtes Framework für
maschinelles Lernen , das von Google bereitgestellt wird. Wir können Tensor Flow
für die Entwicklung verschiedener
A-Anwendungen verwenden für die Entwicklung verschiedener Als Anfänger
findest du viele
Tutorials, um KI zu lernen, okay? Auf der Homepage
selbst haben sie
einen sehr einfachen Python-Code zum
Trainieren des A-Modells bereitgestellt , okay? Wir können es ausführen, indem wir
auf diesen Link klicken. Wenn wir auf diesen Link klicken, wird dieser Code als
Notizbuch in Google Colab geöffnet Okay. Also da können wir
einfach den Code ausführen, okay? Wenn Sie mit Colab nicht
vertraut sind, werde
ich Ihnen jetzt nur
einige grundlegende Informationen
darüber geben , okay? Wir müssen colab
google.com in einem Webbrowser besuchen. Und wir können ein neues Notizbuch öffnen. Es ist ein Notizbuch,
Data IPYNB-Datei. Colab bietet Optionen zum
Hinzufügen von Codezellen
sowie Textzellen Okay? Wir können verschiedene Zellen haben. In die Codezelle können wir Python-Code
aufnehmen. Ich füge nur einen sehr
einfachen Code hinzu, okay? Und dann können wir es ausführen. Okay, jetzt haben wir
das Ergebnis, richtig. Tatsächlich
werden RAM und GPU von Google bereitgestellt. Wir müssen uns also keine
Sorgen um die Infrastruktur machen. Wir können uns einfach darauf konzentrieren, Programmieren zu
schreiben, okay. Und genauso
können wir den Text
auch hinzufügen, um den Code zu erklären oder irgendwelche
Anweisungen zu geben, okay? Und wir können eine weitere
Codezelle hinzufügen, bis wir eine weitere
Codierung hinzufügen können, okay? Wir können also jeden
Abschnitt separat ausführen. Es wird für
Debugging-Zwecke und zum
Verständnis der Codierung sehr
nützlich Debugging-Zwecke und zum
Verständnis Okay. Als Anfänger ist
es ein sehr einfacher und leichter Weg und selbst ich kann sagen, effektive
Art zu lernen, okay. Aber danach kannst du anfangen, jede Art von
deiner Lieblings-ID zu
verwenden, wie zum Beispiel VS-Code,
irgendwas, okay? Okay. Jetzt werde ich diesen Link öffnen. Okay, ich öffne das Notizbuch
auf Google Colab, okay? Hier ist der Ablauf wie beim Laden eines
neu erstellten Datensatzes und
dem Aufbau eines
maschinellen Modells
für neuronale Netzwerke, das Bilder
klassifiziert, dieses neuronale Netzwerk
trainiert und dann das
Accurcepor-Modell auswertet Das ist der Zweck
dieses Beispiels, okay? Für die Einrichtung des Tensorflusses geben
sie den
Tensorfluss Und zum Laden des Datensatzes verwenden
sie den MNIST-Datensatz verwenden
sie Okay? Ein IST ist ein Datensatz mit handgeschriebenen
Zahlen Wenn wir in der Wikipedia nachschauen, können
Sie einige Beispiele sehen Es ist eine handgeschriebene Zahl von
Null bis Neun, okay? Sogar Google liefert auch
Details darüber, okay? Und tatsächlich
hat es 60.000
Trainingsbeispiele und 10.000
Testbeispiele, okay? Ähm, um
irgendein A-Modell zu trainieren, ist
es erforderlich,
sowohl den Trainingsdatensatz als
auch den Testdatensatz bereitzustellen , okay? Also müssen wir
den Datensatz laden, okay? Und dann ein Modell für
maschinelles Lernen erstellen, okay? Dafür können wir Keras verwenden. Keras APA ist eine sehr einfache
Art, die Dinge zu erledigen. Ab sofort wird es
Teil von Tensor Flow, okay? Es ist einfach, Tensor
Flow mithilfe der Keras-API zu verwenden. All diese Schritte
dienen also der Einrichtung des Modells. Okay. Und dann können wir
das Modell mit dieser Passform trainieren. Okay? Und dann
evaluieren Sie das Modell. Okay. Das ist die Grundlage, um das
Modell zu erreichen, okay? Aber sie haben auch viele
andere Informationen geliefert, oder? Als Anfänger wird es also
verwirrend sein ,
alle Details durchzugehen. Also, ich habe gerade ein einfaches, äh,
Notizbuch erstellt, indem
ich einfach
die grundlegende Codierung kopiert habe, okay? Wir können
dieses einfach ausführen, damit wir uns
auf den Überblick konzentrieren können. Okay? In der ersten Zelle setzen wir die
Datensatzbibliotheken voraus, Keras von TensorFlow und McPlat Okay. Und wenn wir darauf klicken, werden
die Bibliotheken geladen. Okay. Dann wird der Datensatz geladen,
der NIT-Datensatz, richtig? Also müssen wir
es mit Keras laden. Okay? Nach dem
Laden des Datensatzes müssen
wir die Daten normalisieren. Normalerweise haben die
Farbdatenpixel eine Skala von bis zu 55, oder? Aber für neuronale Netze ist
es einfach für sie, wenn die
Skalierung so 021 ist Okay? Also müssen wir es skalieren. Dafür skalieren
wir es also zuerst. Wir laden den
MIT-Datensatz und dann skalieren
wir die Daten. Okay, das ist nur
zu Lernzwecken. Ich zeige nur ein
Beispielbild, okay? Wenn wir es ausführen, wird das
Beispielbild angezeigt, okay? Es zeigt ein Beispielbild. Das heißt, wir wissen
, dass es geladen wurde. Okay? Es dient dazu, das Modell zu
definieren. Für jede Art von neuronalem Medikament wird
es eine Eingangs - und eine Ausgangsschicht
zwischen vielen versteckten Schichten geben. Okay. Also, während wir das Modell
definieren, setzen
wir diese Parameter eine
versteckte Schicht mit 105
Neuronen wie diesem. Okay. Und dann müssen wir das
kombinieren, um den Optimierer und den Verlust
zu überzeugen Und dann können wir
das Modell mit dieser
Anpassungsfunktion trainieren das Modell mit dieser
Anpassungsfunktion Beim Trainieren des Modells
wird also für fünf Epochen trainiert Epoche in diesem Sinne ist es
eine Art Iteration, okay? Also wird es fünfmal Training
sein. Das Ziel ist also, die
Genauigkeit jedes Mal zu verbessern. Okay? Also beim ersten Mal ist
die Genauigkeit 0,87 Der Verlust beträgt 0,43. Verlust in dem Sinne, Irrtum, okay? In der nächsten Iteration wurde
die Genauigkeit verbessert Bis zu 0,96. Okay? Und der Fehler wurde
zuletzt reduziert, richtig? Also, endlich
erreichte die Genauigkeit bis zu 0,98, okay? Auf 0,04 reduziert. Okay. Das ist also das Grundtraining für das Modell mit einer bestimmten Anzahl von APs. Okay. Also, jetzt ist das
Training abgeschlossen, okay? Jetzt können wir es testen, okay? Weil dieser MNIST-Datensatz
auch Testdaten enthält. Ich habe mit einer Datei getestet. Also die Genauigkeit ist 0,87, Verlust ist 0,09, okay? Es ist okay, oder? Jetzt
ist der letzte Schritt, dass wir es benutzen müssen. Für dieses Eingabebild
hat es uns sieben
richtig vorhergesagt, oder? Es ist eine sehr einfache Sache, oder? Als Anfänger können Sie die Gesamtansicht also leicht verstehen
. Wir laden einfach
den Datensatz
und dann richten wir die primitiven Dinge ein. Ich meine, das Modell zu definieren. Dann trainieren wir das Modell
mit dem geladenen Datensatz mit einer bestimmten Anzahl von EPOC und
testen dann die Genauigkeit Und schließlich machen wir
die Vorhersage. Okay. Für die Vorhersage
verwenden sie in diesem Beispiel also die Daten, die
aus demselben Datensatz stammen. Nehmen wir an, wenn Sie mit Ihrem eigenen Bild
vorhersagen möchten, müssen
wir eine gewisse
Vorverarbeitung durchführen. Nur dann kann es richtig
vorhersagen. Okay? Also ab sofort ist es in der Lage, die
Vorhersage
in dem Sinne wie hier vorherzusagen, das zu Vorhersage
in dem Sinne wie hier vorherzusagen, identifizieren, ich meine, eine Zahl aus
dem Bild zu
lesen, okay? Also läuft es richtig. Hier steht sieben und das Bild sieht
aus wie sieben, richtig? Das ist es also. Das ist eine sehr
einfache Sache, oder? In ähnlicher Weise können wir
jedes Modell nehmen und einfach mit unserem Datensatz
trainieren, und dann können wir ihn verwenden, oder?
11. Scikit-Learn (sklearn) Beispiel: In diesem Video
werde ich das berühmte
Framework für maschinelles Lernen,
Psyche Learn, erläutern berühmte
Framework für maschinelles Lernen,
Psyche Es eignet sich eher für traditionelle
Modelle des maschinellen Lernens wie Klassifikation, Regression, Clustering,
dimensionale Dt-Reduktion, Modellauswahl Auf dieser Website
haben sie also einen von ihnen
unterstützten Algorithmus bereitgestellt Und bei
Deep-Learning-Modellen ist
es besser, Googles Tensor Flow oder
Metas Pi Touch zu verwenden, okay? Dieses Psycht Learn
ist eher
für traditionelle Modelle des maschinellen
Lernens geeignet für traditionelle Modelle des maschinellen
Lernens Aber es ist eine sehr einfache Sache. Es ist eine Python-Bibliothek. Die Python-Bibliothek ist als SCL Run
bekannt, okay? Ähm, sie basiert zufällig auf
NumPi Sci Fi- und
Matplot-Bibliotheken, Es ist eher für
kleine Projekte geeignet, okay. Und es wird sehr
einfach und benutzerfreundlich sein. Also besser als Anfänger, du kannst viele Dinge
mit aufgedrehtem Lernen ausprobieren, okay Im Fall der Klassifizierung geht es lediglich um die Identifizierung,
ich meine, im Fall der
Spam-Erkennung, um die
Identifizierung, ob es sich um
eine Spam-E-Mail handelt oder nicht Es ist wie die Verwendung
verschiedener Algorithmen. Und wir können sie benutzen,
äh, durch Psyche Learn, okay? Also können wir
unser Rekordmodell wählen und dann
können wir es trainieren und wir können es benutzen Okay. Ähnlich, Regression Regression werden bei Aktienkursen
die kontinuierlichen Werte vorhergesagt ,
wie
bei der Vorhersage des bevorstehenden
Aktienkurses . Okay? Es ist also eine kontinuierliche
Wertvorhersage. Und ist es einfach, ähnliche
Objekte in Gruppen zu gruppieren, okay? mit allem zu tun
, was mit Lgatha zu tun hat, okay? Und basierend auf unserer Empfehlung können
wir ein geeignetes Modell auswählen
und dann
Psyched Learn verwenden, um es zu trainieren und
dieses trainierte Modell zu verwenden Okay? In ähnlicher Weise gilt es für die
Maßrichtung, Modellauswahl
und Vorverarbeitung Dieses gezielte Lernen eignet sich jedoch nicht
besonders für
Deep-Learning-Modelle Bei Deep-Learning-Modellen mussten
wir uns für Tensor
Flow oder Pitch entscheiden, okay? Lassen Sie mich Ihnen nur
ein sehr einfaches Beispiel zeigen um das Thema Psyched Learn zu erklären Äh, lassen Sie mich nur eine Sache mit der
Klassifizierung nehmen. Okay? Ich habe den Code hier
in das Google Colab eingegeben, okay Auch Datendatensatz Eklan stellt auch Datensätze
zur Verfügung. Wir geben nur die Datensätze ein. In diesem Beispiel werden
wir den Iris-Datensatz verwenden Es ist wie Details bei
einigen Iris-Flows, okay? Es wird
die Abmessungen, die Maße der
Röhrchen und Blütenblätter und die
Etiketten flach halten , okay? Auf der Grundlage dieser Trainingsdaten wird unser Modell Und dann können wir einige
Beispieldaten verwenden, um
die Vorhersage zu erhalten , sodass das Modell
die Blume identifizieren kann, oder? Es ist ein sehr einfaches Beispiel
für die Erweiterung dieses Kellons. Ich nehme nur dieses Beispiel. Okay? Also zuerst
importieren wir die Datensätze, okay? Und hauptsächlich für das Training, für
jedes Modell, müssen
wir einige, äh äh,
Trainingsdaten
sowie Testdaten verwenden , richtig? irgendein
Modell zu trainieren, müssen
wir zuerst diesen Algorithmus wählen, okay? Ähm, und dann müssen wir Trainingsdaten als
auch Testdaten
bereitstellen. Dann müssen wir das
Modell anhand der Trainingsdaten trainieren. Dann müssen wir
das Modell anhand von Testdaten auswerten. Nur dann können wir damit beginnen
, es
für Vorhersagen zu verwenden. Ich meine, tatsächliche Nutzung, okay? Das ist sehr, sehr einfach für
jedes Modell, okay? In dieser Hinsicht bietet
SC LN diese Aufteilung der Zugtests an
, sodass die Daten,
wie Zugdaten und
Testdaten, automatisch aufgeteilt werden können . Es wird uns also helfen, Zeit zu sparen. Und dieser Algorithmus,
dieser gesendete Klassifikator, das
ist ein
Klassifikator-Algorithmus, richtig? Also Sklearn Tree
aus diesem Paket, wir importieren diese Methode und Metriken zur Messung
der Genauigkeit Für jede Art von Modell müssen
wir die Genauigkeit messen Es ist eine Art von Test. Normalerweise können wir dieses Modell
getrost verwenden, oder? Also müssen wir diese Daten bekommen
und dann müssen wir sie trainieren und dann müssen wir sie testen Dann
können nur wir sie benutzen, oder? Das ist für jede Art von Modell. Das hebe ich
hier nochmal hervor, okay? Im Fall von Scalen versuche
ich zu sagen, dass
es
alle unterstützenden
Bibliotheken bereitstellt , sodass wir mit diesem Scalene selbst alles sehr einfach machen
können Okay? Wir
laden gerade die IRS-Daten. Normalerweise steht
X also immer für Features, oder? Und Y sind Beschriftungen. Für jede Art von
Klassifizierung müssen
wir also sagen,
dass ein Hund vier Beine
hat,
okay, zwei Ohren wie diese, richtig? Also Merkmale
des Objekts, dann die
Bezeichnung CAT, was sind die Merkmale von CAT
und dann Bezeichnung wie CAT. Es ist also eine sehr
grundlegende Methode, diese Art
von Datentraining
durchzuführen. Dafür verwenden wir normalerweise X für die Merkmale und
Y für die Beschriftungen. In ähnlicher Weise sind
unsere Merkmale im Fall
dieser IRS-Flaggendaten wie verlängert
mit einem Kelch- und einem Blütenblatt,
und Y entspricht offensichtlich
dem Label-Flow-Typ und Y entspricht offensichtlich Okay. Und der nächste Schritt ist, wir müssen die
Trainingsdaten und die Testdaten aufteilen. Dafür verwenden wir diesen
Zugtest-Split, okay? Also geben wir X
Five als Argument an, und es wird einfach aufgeteilt
in X-Zug und X-Test, Y-Zug und Weißtest Okay. Offensichtlich ist
es einfach so, dass der Datensatz in
zwei Dinge
aufgeteilt wird: Trainieren und Testen Dann müssen wir das Modell
wählen. Hier wählen wir den
Entscheidungsbaum aus, okay? Also Entscheidungsbaum,
klassifiziertes Modell, okay? Und der nächste Schritt ist die Verwendung von Fit, wir mussten das Modell trainieren. Beim Training des Modells mussten
wir also die
Trainingsdaten bereitstellen, richtig, diese Funktionen und dann die Bezeichnung, richtig? Also Trainingsdaten. Okay, X-Zug, Y-Zug. Okay. Wie ich bereits sagte, mussten
wir die Genauigkeit der Nachrichten gewährleisten. Okay? Es ist eine Art Evaluierung bevor es für den
tatsächlichen Gebrauch verwendet wird, okay? Also hier verwenden wir
diesen Genauigkeitswert. Jetzt haben wir das
Laden der Daten abgeschlossen und sie
dann
in Training und Testen aufgeteilt und dann das
Modell erstellt und dann, äh, das Modell
mit Trainingsdaten trainiert
und dann, Sie wissen schon, die Vorhersage
gemacht, okay, mit dem trainierten Modell Und dann berechnen
wir auf der Grundlage der Daten die Genauigkeit, okay? Sobald wir
mit der Genauigkeit zufrieden sind, können
wir mit der
tatsächlichen Nutzung fortfahren und
jede Art von neuen Proben vorhersagen Also die neue Stichprobe, wir verwenden nur dieses
Beispielbeispiel, okay? Ähm, es ist die Länge
des Kelchblattes und die Breite des Kelchblattes, die Länge des Blütenblattes und die Breite bis
zum Blütenblatt Okay. Wenn Sie also diese Zahlen als Merkmale
dieses Probenflusses angeben, können wir das einfach als Vorhersage
für die Vorhersage der neuen Probe
unter Verwendung dieses trainierten Modells
bezeichnen Vorhersage
für die Vorhersage der neuen Probe unter Verwendung dieses trainierten Modells Es ist sehr einfach, oder? Aber es deckt alle
grundlegenden Dinge des Trainings ab, jede Art von Modell für
maschinelles Lernen. Das ist also sehr grundlegend. Alles, auch was
Computer Vision angeht,
das Grundprinzip ist das Gleiche, okay? Mit Hilfe von Econ kannst
du es also leicht lernen, okay? Also können wir es einfach ausführen. Okay, die Genauigkeit
ist also 100%, okay? Also können wir
mit der tatsächlichen Nutzung weitermachen. Der tatsächliche Wert bezieht sich auf diese Probe, sie klassifiziert
sie als Setosa, okay? Nehmen wir an, wenn wir
diese Parameter ändern, wird
es Regie
als etwas Vielleicht habe ich eine andere Probe. Es ist eine andere Sache, okay? Vielleicht können wir es einfach
zufällig ändern, okay. Also ist es in der Lage, das Mehl
vorherzusagen, okay, basierend auf den Abmessungen des Mehls, okay? Das ist es. Es geht darum, dass AscAln anfängt, es zum
Üben zu benutzen. Aber in der Praxis ist
es, wie ich bereits erklärt habe, für jede Art von Deep Learning besser, wie ich bereits erklärt habe,
für jede Art von Deep Learning besser,
Dutzende von Flow zu verwenden , weil
diese
Produktionsimplementierungen ermöglichen, die
alles bieten , was sie einfach machen Aber in Kids of Scale Learn können
wir es leicht lernen, okay?
12. Tutorial zum Umarmen eines Gesichts: In diesem Video werde ich etwas über Hugging
Face erklären. Hugging Face ist eine
beliebte Plattform für künstliche Intelligenz,
insbesondere für insbesondere für Es
behauptet, KI zu demokratisieren weil es sich um eine riesige
Open-Source-A-Community Hier finden wir viele verfügbare Open-Source-Modelle und
Datensätze Okay. Und wir können hier auf
verschiedene Anwendungen zugreifen. Im Grunde genommen sind hier
drei Dinge
sehr wichtig. Eines sind Modelle, ein anderes
sind Datensätze und Räume. Hier in den Modellen können
wir eine Menge Modelle finden,
okay, Hunderttausende von
Modellen. eine riesige Anzahl von Modellen,
und sie
sind Es gibt eine riesige Anzahl von Modellen,
und sie
sind nach multimodaler
Computervision,
natürlicher
Sprachverarbeitung, NLP,
Audio, Tabelle,
Reinforcement-Learning
usw. kategorisiert multimodaler
Computervision,
natürlicher
Sprachverarbeitung, NLP,
Audio, Tabelle, , so viele Modelle gibt es hier im Fall
von mehreren Modellen,
Audio, Text zu Text, Bild, Text zu
Text, visuelle Beantwortung von
Fragen, okay Und die Computer Vision, hier
Tiefenschätzung, Bildklassifizierung, Objekterkennung, Bildsegmentierung,
Text zu Bild, Bild zu Text, Bild zu Bild, Bild zu Bild, wie Bild zu Video. Es deckt also fast
alles ab, was Computer Vision zu
tun hat,
und vor allem ist es sehr,
äh, der Name steht für natürliche
Sprachverarbeitung Abgesehen davon, dass es hier Modelle gibt, stellt
es
auch eine Bibliothek für die
Transformer-Bibliothek zur Verfügung.
Mithilfe der Transformer-Bibliothek können
wir über diese Pipeline problemlos auf viele
Modelle zugreifen.
Wir können einfach angeben, Wir können einfach angeben was wir wollen, anstatt den Modellnamen selbst zu
geben. Es wird automatisch relevante Modelle
finden. Okay? So einfach, mit
ein paar Zeilen Codierung können
wir eine Menge Dinge tun. Okay? Das ist der
Hauptvorteil der Umarmungsphase Und wir können anfangen, es kostenlos zu
verwenden, aber je nach Nutzung,
nehmen wir an, wenn Sie
es stark mit der GPU verwenden, dann werden sie
das je nach Nutzung berechnen. Okay? Oh, es sind also hauptsächlich Forscher, die
Forschung in diesem Sinne mögen. Selbst wenn Sie
etwas entwickeln wollen und etwas
erforschen, wird
das sehr nützlich sein. Aber für die Produktion
glaube ich nicht, ob es geeignet
ist oder nicht. Okay. Wie dem auch sei, für was auch immer
du etwas tust, du kannst mit
den Leerzeichen auch frei hosten, okay? Lass es mich eins nach dem anderen erklären. Hier, Models, wir haben
eine Menge Modelle, okay? Ein Modell, das nach
verschiedenen Themen kategorisiert ist, damit wir
die relevanten Modelle leicht finden können. Und wir können viele Dinge bekommen. Wenn Sie nach einem
bestimmten Modell suchen, finden
Sie den Beispielcode oder die Details zum Modell. Damit wir dieses Modell problemlos
verwenden können. Sie stellten sogar
Beispielanwendungen zur Verfügung. Also bleib einfach, du
kannst einfach darauf klicken
und sehen, wie andere Leute
anfangen, dieses Modell zu benutzen. Okay? Soviel Bequemlichkeit, diese Phase der Umarmung
ist für die Hochzeit Okay? Also, wenn Sie
mit einer Entwicklung noch nicht vertraut sind, würde
ich empfehlen, sich intensiv mit der
Umarmungsphase zu beschäftigen Okay? Verbringe mehr Zeit
mit umarmen Gesichtern Angenommen, Sie
möchten dieses Modell verwenden, klicken Sie
einfach auf Dieses Modell verwenden Und mit den
Transformer-Bibliotheken können
wir nutzen, dass sie den Code
bereitstellen. Okay. Das Einzige
ist also, dass wir hauptsächlich diese
Transformer-Bibliothek
installieren müssen, diese
Transformer-Bibliothek
installieren von Hugging Face
bereitgestellt wird Und dann kannst du einfach
den von ihnen
bereitgestellten Assemblercode verwenden , okay? So viel ja. Also vielleicht können
wir einige Modelle testen. Wir können das auch von
unserem Lokal aus machen. Einige Modelle
können sich also wiederholen, andere beispielsweise eine erhebliche GPU-Auslastung. Also werde ich die Dinge
über Google Colab
erklären , okay? Um diese Probleme mit der
Rechenleistung zu vermeiden. Aber meistens
habe ich nur hier sehr
einfache Maschinen. Aber als ich es
mit verschiedenen Modellen versucht habe , funktioniert
es reibungslos. Okay. Aber bei einigen Modellen gibt es möglicherweise
wiederkehrende Ressourcen. Also besser für Demo-Zwecke, ich werde Google Colab verwenden, aber Sie können es meistens auch auf
Ihrem lokalen Computer verwenden Bei einigen Modellen wird es
wiederkehrenden APA-Zugriff geben, okay? Meist werden andere Modelle
automatisch auf Ihr
lokales Gerät heruntergeladen. Okay? Einige werden APA verwenden. Und APA, du kannst einfach
ein Token von hier bekommen, okay? Loggen Sie sich einfach in die
Umarmungsphase ein, holen Sie sich das Token und exportieren Sie dann einfach den
APA-Schlüssel in Ihre Umgebung Dann können Sie einfach die Suel-Codes
verwenden, um verschiedene Modelle
zu erkunden, verschiedene Modelle
zu erkunden nur um sich
mit einer Entwicklung vertraut zu machen.
Umarmen ist ein einfacher
Weg, Umarmen ist ein einfacher Okay? Es
gibt eine Menge Models, okay? Du kannst sie erkunden und vor allem
sie so
kategorisieren , sodass du dein Modell leicht
finden kannst , oder du kannst
einfach nach dem Modell suchen, okay? Hier haben sie mit dem
Trenden angefangen, damit wir die beliebtesten finden
können, okay. Und in ähnlicher Weise sind
als Nächstes Datensätze dran. Es stellt auch eine
Menge Datensätze zur Verfügung. Nehmen wir an, Sie
entwickeln Ihr eigenes Modell und möchten
mit einigen Datensätzen trainieren, können
Sie die Datensätze einfach verwenden Auch hier etwas
Ähnliches wie Transformer, Sie können einfach die
Datensatzbibliothek verwenden Okay? Nehmen wir an,
wenn Sie irgendeine Art von Datensatz
verwenden möchten, können
Sie einfach diese Bibliothek verwenden. Okay? Aus Datensätzen können
Sie also einfach
Ladedatensätze wie diesen eingeben Okay? Also so einfach. Okay. Also für Anfänger wird
es wirklich nützlich sein, okay? So können Sie
viele Modelle,
wie Isel, leicht erkunden wie Isel, leicht Innerhalb weniger Minuten
können Sie jede Art von Modellen verwenden. Okay. Die Räume, nehmen wir an, ihr Einheimischen habt nicht
genug GPU oder andere Dinge, ihr könnt die Räume erkunden. Hier haben bereits viele Leute
einige Modelle verwendet und
einige Anwendungen erstellt. Okay. Also kannst du
sofort diesen erkunden. Und wenn Sie irgendeine Art von
Anwendung
entwickeln, die diese
Modelle verwendet , können Sie
diesen riesigen Bereich auch frei hosten Damit auch eine andere Zelle durch dein
Ding gehen kann. Es gibt viele Anwendungen. Es liegt am Image,
es dauert einige Zeit. Du kannst diese Dinge erforschen. Es gibt eine Vielzahl von Modellen und
Anwendungen. In ähnlicher Weise können wir einfach eine
Anwendung erstellen und
sie im Space hosten. Wir können neuen Raum schaffen und dann können wir
einfach unser Okay geben. Wir können Stem Whet oder
Gradual für die Entwicklung unserer Benutzeroberfläche verwenden. Okay? Also hier geht es um Leerzeichen. Auf ähnliche Weise können wir
Datensätze und Modelle verwenden. Okay? Also wir können sagen, dass es drei Säulen
dieser Umarmung gibt, okay? Also Modelle, Datensätze und Räume. Und vor allem verfügt es
über eine eigene Bibliothek, wie Aufteilung
von
Transformer-Datensätzen, sodass wir verschiedene
Codierungen sehr einfach handhaben können Okay, ein einfacher Weg. Okay. Lass uns zuerst mit dem Beispiel eines
Symbols beginnen, okay? Hier können wir also nach
der Aufgabe und sogar nach den verwendeten
Bibliotheken filtern , auch auf der
Grundlage von Datensätzen und Sprachen, natürlichen Sprachen und
auf der Grundlage solcher Lizenzen. Okay. Also können wir leicht
unser Rekordmodell herausfinden, okay? Lassen Sie mich zuerst mit einem
einfachen Modell beginnen. Vielleicht können
wir die Textklassifizierung richtig machen. Und hier werden viele
Modelle für diesen Zweck aufgelistet. Okay. Ich entscheide mich nur zufällig
für diesen. Aber wir können einfach
die Details durchgehen , um zu verstehen , welches Modell für unsere eigenen Empfehlungen besser
geeignet ist. Nehmen wir zum Beispiel an,
einige Modelle
werden anhand
eines allgemein gebräuchlichen Textes trainiert, andere
beziehen sich auf finanzielle Dinge, andere
beziehen sich auf den elektronischen Handel, besser, Sie können das
passende auswählen. Ich bin nur zu Demonstrationszwecken, ich nehme nur diesen. Okay? Also hier haben sie alle Details
angegeben. Also, wenn Sie
diese Transformatoren
über Transformatoren verwenden möchten . Wie ich bereits sagte, ist
Transformers eine sehr
einfache Art, es zu verwenden, insbesondere die
Pipeline-Funktion wird sehr nützlich sein. Ich versuche nur, das zu benutzen. Andernfalls, wenn Sie das Modell direkt
laden möchten, können
Sie dies auch tun. Okay. Aber Pipeline wird eine sehr einfache Art
sein Google Colab zu
verwenden.
Du kannst es einfach ausführen Es ist positiv. Die
99-Prozent-Konferenz? Die ist negativ. Okay? Also ist es sehr einfach. Sie können einen beliebigen Text angeben. Okay? Es wird das klassifizieren. Okay? Vielleicht können wir etwas von
positiven Dingen abschreiben, okay? Wir können also einfach diese Pipeline dieser
Transformer-Bibliothek
verwenden, nur um das Modell
und die Aufgabe anzugeben , die wir für die Textra-Klassifizierung haben Das ist es. Okay. Dann
können wir anfangen, dieses Modell zu verwenden. Okay? So einfach. Okay. Ebenso können wir es für
jedes Modell für jeden Zweck tun. Ich habe schon etwas aufgelistet. Vielleicht können wir uns für
diesen entscheiden, okay? Stimmungsanalyse. Deshalb bieten
wir hier zusätzliche Klassifizierung an
und spezifizieren das Modell In diesem Beispiel
fragen wir nur als sentimentale Analyse,
sentimentale Analyse, sentimentale Und dann
geben wir diesen Text weiter
und das macht er, und das macht er Also im Grunde verwendet es dieses
Textklassifizierungsmodell, okay? Wir führen sentimentale Analysen durch. Und mithilfe einer Pipeline können wir auch
die
Null-SAT-Klassifizierung durchführen auch
die
Null-SAT-Klassifizierung Das heißt, ohne Kennzeichnung können
wir
die Eingabe kategorisieren, okay? Mit Hilfe von Pipeline
nennen wir das einfach Zero-shot-Klassifikation Okay? Also wird es ein
passendes Modell finden, okay? Und wir geben die Inputs. Wie Text ist, habe ich kürzlich
einen neuen Laptop gekauft und er ist
superschnell und leicht. Die Labels, die Technologie, die
modischen Kräfte. Okay? Wir machen
keine Etikettierung, okay? Wir haben nur die Eingabe
und die Liste der Labels bereitgestellt. Und diese
Nullschuss-Klassifizierung
wird ihr
Eigenschaftslabel finden, okay? Das ist Zero SAT. Wir geben keine Beispiele
oder Kennzeichnungen, okay. Auf der Grundlage des Textes selbst,
aufgrund der Bedeutung
des Textes und der
Bedeutung der Bezeichnungen wird
es also aufgrund der Bedeutung möglich sein, oder klassifiziert
zu werden. Hier bot sie also
Technologie für Technologie. Der Wert liegt bei 97
Prozent für Sport, einem Prozent und bei Mode sind
es null Prozent. Im Grunde ist es
Technologie, oder? Es ist ein korrektes Profil.
Ich habe kürzlich einen neuen Laptop gekauft und er ist
superschnell und leicht.
Es ist Technologie, oder? Es ist soweit, dass es
dieses Facebook benutzt , aber Lodge LI und die
Prognose-Nummer ist diese Okay. Nur um Zeit zu sparen, nehme
ich von
diesem Beispielcode. Andernfalls können
wir das
Modell selbst anstatt die Pipeline zu verwenden, wir können das Swig-Modell beeinflussen Aber um Zeit zu sparen, verwende
ich diesen Weg. Hier geben wir diese Aufforderung, künstliche
Intelligenz wird die Funktion ändern und wir bitten darum, Text mit einer
maximalen Länge von 50 zu generieren. In diesem Fall müssen wir
die Textgenerierung durchführen. Es wird ein
geeignetes Modell auswählen. Es wählt dieses
offene GPT-Modell von A Community , um
das Feature zu ändern Das haben wir zur Verfügung gestellt. Hier heißt es, dass Ihnen die Möglichkeiten eröffnet , eine komplexere Person zu sein. Der Kontext wird das
Merkmal verändern, indem er sich um
alle Menschen kümmert , denn künstliche Intelligenz
wird alles verändern. Wir werden ein menschliches
Bewusstsein haben, was eine andere Art
von Technologie ist. Etwas. Also im Grunde ist es in der Lage, Text
zu generieren, okay. Also, was ich damit
sagen will, ist, dass
wir mit Hilfe dieses umarmen Fisches dieses umarmen Fisches eine Menge Zeit sparen können Wir müssen nur einen
Transformator und
eine Pipeline verwenden und einfach
spezifizieren, was wir wollen Es wird automatisch
das passende , äh, Modell finden. Selbst wenn Sie
das Modell speziell spezifizieren, können
wir diesen
Transformator verwenden, sodass wir die Codierung auf einfache
Weise durchführen
können. Wir müssen nicht verstehen, wie jedes einzelne Modell
funktioniert, oder? Auf diese Weise kann viel Zeit
gespart werden, und wir können
das Modell einfach auf einfache Weise ändern. Okay, die
Codewartung wird einfach sein. Äh, dieser hier,
Beantwortung der Frage, okay? Wir verstehen dieses Wort im Kontext
und stellen Fragen. Wir haben gerade die Beantwortung dieser
Frage
erwähnt, okay, damit wir eine
Antwort auf diese Frage bekommen können. Es benutzt digitalen Vogel, okay? Das Modell. Es gibt
Antworten, New York und Paris G hat New
York und Paris erwähnt, richtig? Also hat es derzeit diese Antwort
gebraucht. Wir können es also für
verschiedene Dinge tun. Bei der Erkennung benannter
Entitäten werden
wir erkennen, ob
es sich um eine Person oder einen Ort handelt
, solche Dinge, oder? Okay. Also geh einfach
verschiedene Modelle durch, okay? Und Sie können es auf Ihrem lokalen Computer
oder
in Google Colab testen , oder Sie können sich einfach einige
Beispiele aus diesen Bereichen ansehen Und wenn du
gute Anwendungen erstellst, kannst
du sie einfach hier posten, um deine Fähigkeiten
unter Beweis zu stellen, okay?
13. Der Spielplatz TensorFlow erklärt: In diesem Video werde ich über
TensorFlow Playground erzählen Tens Flow ist ein von Google
bereitgestelltes Framework für maschinelles Lernen von Google
bereitgestelltes Es ist ein sehr nützliches Framework für die Entwicklung von A-Anwendungen. Und der Spielplatz ist nur
zum Lernen da, okay? Es ist ein webbasiertes Tool. Wir können es vom Browser aus verwenden, indem wir
einfach
playground.tensorflow.org eingeben Okay? Nachdem Sie
das in die Adressleiste eingegeben haben, werden Sie diese Seite sehen. Es ist eine einzelne Seite.
Hier erfahren
Sie wie Sie Deep
Learning anhand von Experimenten erlernen können. Zunächst werde ich erklären, welche Komponenten hier
verfügbar sind. Also hier ist es für den
Anfang und ich meine, das Laufen und Bestehen des
Trainingsprozesses, okay? Und dieser Bereich ist dieser Bereich
auf der linken Seite für Daten. Hier können wir die Daten
aus verschiedenen Arten von Datensätzen auswählen aus verschiedenen Arten von Datensätzen z. B. kreisförmig und exklusiv
oder gaußförmig Es gibt verschiedene Arten von
Daten, die hier verfügbar sind. Wir können eine davon wählen. Und hier können wir
das Verhältnis zwischen
Trainingsdaten und Testdaten wählen . Wir können die Daten in
Training und Test aufteilen. Und wenn Sie möchten, können wir Rauschen in die Daten
einbringen. Wenn wir also Rauschen erzeugen, werden
die Daten
durch etwas Rauschen beschädigt. Okay. Und die Charge sagt
auch, dass wir uns ändern können. Wenn wir auf Regenerieren klicken, wird der
Trainingsprozess gestoppt Okay, und es werden verschiedene Anzeigen
geladen. Äh, hier ist es zum Beispiel, das Netzwerk
zurückzusetzen, okay Epoch, hier können wir das EPA nicht
betreten. EPOC ist nichts anderes als eine Reihe von Schritten
oder Iterationen Trainings. Ich
meine, Trainingsschritte hier. Hier dient es nur zur
Veranschaulichung. Wir werden nicht die Kontrolle haben, das Training zu
beenden, indem wir den EPOC
festlegen, okay? Aber beim eigentlichen Programmieren können
wir das tun. Entweder wir können vorzeitig aufhören indem wir den
Trainingsprozess beenden, wenn sich
der Verlust
für bestimmte aufeinanderfolgende
Schritte nicht ändert , Epoche, okay? Aber dieser Lernzweck wird weitergehen. Wir müssen
den Trainingsprozess manuell beenden, indem die Grenzwerte
und die Verlustwerte ansehen. Okay. Lernrate,
das ist die Geschwindigkeit, die das Lernen beschleunigt. Wenn wir es also
langsam halten, dann meine ich einen
niedrigen Wert, dann wird der
Lernprozess langsam sein, aber die Stabilität wird gut sein. Aber wenn wir
die Lernrate erhöhen, wird
es schneller lernen. Aber dieses Modell wird instabil
werden. Okay? Und die
Aktivierungsfunktion wirklich viele verschiedene Arten gibt es
wirklich viele verschiedene Arten
von
Aktivierungsfunktionen. Aktivierungsfunktionen steuern
, wie das Modell
mit den Gewichten umgeht. Gewichte sind wie interne
Parameter. Die Gewichte werden je nach Training
des letzten Parameters
geändert ,
andere Dinge, okay? Das ist also das Kernkonzept neuronaler Netzwerke, oder? Hier können wir also sehen
, dass das Training Werte hat. Okay. Sogar wir können es bearbeiten. Es wird Gewicht geben.
Das ist Regularisierung, L eins, L zwei, so Jetzt können wir wählen. Und wir müssen diesen Wert
wählen. Okay. Die Regularisierung dient also dazu, Überanpassungen zu vermeiden Überanpassung ist zum Beispiel,
wenn wir
sehr leistungsstarke Dinge
wie eine große Anzahl von
Neuronen oder viele versteckte Schichten wählen sehr leistungsstarke Dinge
wie eine große Anzahl von , wenn wir das neuronale
Netzwerk so
einrichten, dass dieses neuronale Netzwerk die
Trainingsdaten mehr als genug
lernt Das heißt, es wird
sich sehr auf die Trainingsdaten konzentrieren. Es wird nicht verallgemeinert werden. Okay? Wenn dieses Modell auf generalisierte Weise
trainiert wird, dann wird es nur
im Umgang mit unbekannten Daten effektiv sein im Umgang mit unbekannten Daten Wenn es spezifisch für
die Trainingsdaten ist, wird
es die Trainingsdaten erkennen, ich meine, es wird die
Trainingsdaten effektiv vorhersagen oder verarbeiten, aber es wird nicht in der Lage sein, die neuen Daten
zu Selbst wenn die Daten den Trainingsdaten sehr
ähnlich sind, werden
sie nicht richtig
verarbeitet In diesem Fall müssen wir also
eine Überanpassung vermeiden. Also dafür gibt es eine Art
Regularisierung, nur um
die Gewichtszunahme
an bestimmten Stellen
zu kontrollieren Gewichtszunahme
an bestimmten Stellen
zu Dafür wird diese Regularisierung also sehr nützlich
sein. Und das ist ein Problem, egal ob es sich um eine Klassifikation
oder eine Regression handelt, okay Wir können mit verschiedenen
Parametern untersuchen und herausfinden wie das Modell funktioniert und wie das
Ergebnis aussieht,
wie viel Zeit es in Anspruch nimmt und wie die Gewichte berechnet
werden Also hier geht es um Merkmale,
wie Eigenschaften. Welche Eigenschaften
möchten Sie in Eingabeeigenschaften einspeisen? Wie bei jedem
neuronalen Netzwerk, dessen Merkmale aufgrund
der Trainingsdaten wichtig sind, oder? Hier können wir festlegen, welche Art von Funktionen wir
dem geben werden. Und hier, versteckte Schichten. Es ist Eingabeschicht,
es ist Ausgabeschicht. Dazwischen können wir versteckte Schichten
haben. Auch ohne versteckte Ebenen kann es funktionieren, aber das Hinzufügen von versteckten Ebenen verbessert die
Leistungseffizienz, okay? Und jede versteckte Schicht kann
ihre eigene Anzahl von Neuronen haben. Wir können die Anzahl der
Neuronen erhöhen oder verringern, okay? In jeder Schicht. Hier können wir vier Neuronen behalten. Hier können wir zwei Neuronen behalten. Und dann können wir das
Muster finden, wie es funktioniert. All diese Dinge werden dir
beibringen können , wie es funktioniert. Wenn wir nur lernen, können
wir es in
unsere eigentliche Programmierung implementieren , sodass
wir viel Zeit sparen können. Okay. Andernfalls, wenn wir praktisch
alles tun, was bedeutet, wird
es viel Zeit in Anspruch nehmen, oder? Also hier ist es eine Art Simulation. Hier können wir wissen, wie sich das
Modell verhalten wird. Auf dieser Grundlage können wir unsere Entwicklung
planen. Okay? Also diese Perspektive, dieser Spielplatz mit zig
Flow-Spielplätzen , wird nützlicher
sein. Okay? In diesem
Sinne nützlicher ist es,
dass wir viele Übungen machen müssen. Wir müssen
die Lernrate ändern. Lerngeschwindigkeit, wie gesagt, wenn wir
die Lernrate weiter erhöhen, wird das die
Stabilität beeinflussen, okay? Manchmal gelingt nicht einmal die
Konvergenz. Okay? Regularisierung, wie gesagt, wenn wir die
versteckten Schichten vergrößern, müssen
wir die Verordnung anwenden Okay. Also immer
wird es einen Kompromiss geben. Also müssen wir zuerst den
passenden besten Punkt finden. Wir verwenden es in unserer Codierung, okay? Zu diesem Zweck müssen
wir also verschiedene Dinge erforschen. Wir mussten auswählen, ich meine, den Datensatz
ändern und dann dasselbe mit
verschiedenen Datensätzen
machen Also hier hat die Farbcodierung auch
eine gewisse Bedeutung. Orange bedeutet negativ, okay? Blau bedeutet positiv,
okay, generell. Aber abgesehen davon wird es auch für verschiedene Sitzplätze
verwendet, für
verschiedene Klassen, okay? Also hier, wie gesagt,
hier können wir sowohl
das Gewicht sehen als auch das Gewicht ändern. Bei dieser Ausgabe handelt es sich
also sowohl um Testglas als
auch um Trainingsglas. Tesla ist also wie
Verlust ist Irrtum. Okay. Unser Ziel ist es,
den letzten auf Null zu reduzieren. Das heißt, es liegt kein Fehler vor. Aber im Idealfall ist es etwas
schwierig, Null zu erreichen. Okay? Falls du
vorhast, eine Codierung zu schreiben. In diesem Fall werden
wir beim Anhalten
des Zuges natürlich denken, dass
wir, sobald wir die letzte Null erreicht haben, das Training so beenden können , wie
wir denken werden. Aber in einigen Fällen, in den
meisten Fällen, ist es etwas schwierig, Null zu
erreichen. Entweder wir können es
früh einschätzen und es beenden, wir können es verwenden. Das heißt, wir müssen die
letzten Werte für jede Epoche
kontinuierlich überwachen Und wenn es sich für einige
aufeinanderfolgende Epochen nicht ändert, können wir das Training beenden Sonst macht es keinen Sinn
, das Training fortzusetzen. Okay. Und andernfalls, wenn du glaubst, dass
es Null erreichen wird, kannst du
vielleicht auch
diese Bedingung verwenden. Aber anstatt exakt Null
zu setzen, können wir
vielleicht einen
Mindestwert angeben, okay? Wir können es ausführen und sehen ,
wie sich die Klasse
verändert, okay? Hier kannst du die Epoche sehen. Es läuft ununterbrochen. Wie ich bereits sagte,
es wird nicht aufhören. Okay? Es wird weiterlaufen. Selbst wenn es die
Null erreicht, hört es nicht auf, okay? Wir müssen die Grenze sehen, wie sie sich verhält, denn wenn wir Ni
einführen, was passiert dann Schön in dem Sinne hier, das
Blau ist hier auch das Rot. Die Orangen sind da, das
ist wie eine mühsame Aufgabe Wenn wir regenerieren wollen, können
wir die gesamte Drehung unterbrechen
und Ihren Datensatz laden Wir können das einfache Gaußsche Verfahren verwenden. Wenn das Geräusch hoch ist,
wird das Geräusch reduziert. In diesem Fall wird es meiner Meinung nach
meistens
fast Null plus sehr
leicht wie erwartet erreichen , zuletzt wird es sehr schnell Null, es ist in der Lage, klar zu
unterscheiden. Es hat Null erreicht, okay? Es gibt also keine Empfehlung
für das weitere Laufen. Aus den Experimenten können wir
ersehen, wie viele
Epochen es dauern wird. Darauf aufbauend
können wir den Code schreiben. Okay. Diese Perspektive
wird sehr nützlich sein. Und noch eine Perspektive
für Anfänger, einfach um zu wissen,
was Lernrate ist, was Aktivierung ist, was reguläre Lösung
ist. Zu diesem Zweck können
wir das auch verwenden, okay. Und wenn Sie in KI fortgeschritten sind, können Sie
vielleicht untersuchen, wie sich die
Gewichte ändern. Wenn du das Gewicht manuell
änderst, wie es sich verhält, dann kannst
du lernen, okay? Also ist es für alle Arten von Menschen. Also, basierend auf unseren Fähigkeiten, aktuellen Kenntnisstand, können
wir das nutzen. Es ist also ein wirklich nützliches Tool. Ich würde empfehlen,
es zu üben und mehr Zeit zu verbringen. Aber du musst immer wieder die Werte
notieren, welche Werte gerade ausgewählt sind,
warum es so größer ist. Wenn du nur zufällig etwas
änderst,
bedeutet das nichts.
14. RAG (Retrieval-Augmented Generation) Tutorial: In diesem Video erkläre
ich das Retrieval Augmented
Generation Ist die Technik, bei der
Abruf und Generierung
für eine bessere KI kombiniert Abruf und Generierung
für eine bessere In diesem Video werden wir uns diesen
Themen befassen. Was ist Rag? Warum ist Rag wichtig?
Wie funktioniert Rag? Teilkomponenten,
Anwendungsbereiche, Vor- und Nachteile Und dann eine einfache Demo. Also zuallererst, was ist Rag? Rag ist ein Hybrid-A-Modell , das
abrufbasierte Methoden kombiniert und relevante
Informationen aus
Ihrer Wissensquelle
mit generativen Methoden
abruft Ihrer Wissensquelle
mit generativen Das bedeutet, neuen Text zu erstellen. Im Grunde
gibt es also zwei Dinge. Das eine ist das traditionelle Abrufen von
Dingen wie das Durchsuchen eines Textes aus Ihrer Datenbank oder aus einer
solchen PDF-Datei, oder? Wir werden also eine Wissensdatenbank
haben. Von dort aus können wir
die Suche durchführen, um
Datensatzinformationen zu erhalten. Okay? Das ist das Abrufen
relevanter Informationen aus einer Wissensquelle.
Das ist Abruf Eine andere ist Generation. Generation, das ist heutzutage eine sehr
wichtige Sache. Sie haben vielleicht von dem Wort KI
generieren
gehört , oder? Diese Chatbots wie
Char GBT und Deutschland
haben also die Fähigkeit, neue Inhalte zu
generieren Sie werden in der Lage
sein, neue Artikel, neue Blogbeiträge und sogar neue
Bilder zu erstellen In diesem Fall wird es als Multimodel
bezeichnet. Okay, intern
verwendet es ein großes
Sprachmodell wie GPT Four Im Fall von GPT wird das
GPT-Vier-Modell verwendet. Diese LLMs sind mächtig
, wenn es darum geht, Dinge zu generieren, aber sie haben einige Einschränkungen Im Fall von Rag kombiniert
es sowohl die Fähigkeit des Abrufs als auch der
Generierung Das ist der Grundgedanke, wenn es darum die Leistungsfähigkeit von
Abruf und Generierung zu
kombinieren Die Kernidee besteht darin,
Sprachmodelle indem sie ihre Antworten auf externes
Wissen Okay? Also das ist so etwas wie gelbe
Klumpen mit Hilfe externem Wissen
ausfindig zu machen, okay? Also, warum ist Lappen wichtig? Die traditionellen Modelle,
A-Modelle , weisen nur
wenige Mängel auf. Einer davon ist der begrenzte Wissensabbau. Ein anderes sind Halish Nations. Eingeschränkter
Wissensabbau in diesem Sinne. Tatsächlich
verwendet
das HarGBT, wie gesagt, intern das GPT-Vier-Modell Dieses GPT-Vier-Modell ist
ein vorab trainiertes Modell. Das heißt, es wurde
mit vielen Daten trainiert. Im Fall dieser LLMs werden
sie also mit
riesigen Datenmengen trainiert Mit Hilfe von
viel
Rechenleistung wurden sie trainiert In diesem Fall
sollten einige Termine gekürzt werden. Nehmen wir zum Beispiel an, sie haben es vor zwei Monaten
trainiert, dann wird es nur Daten
bis zu diesem Zeitraum haben. Okay, es wird also nicht
die neuesten Informationen haben. Okay? Das ist also ein
Hauptproblem bei LLMs Und ein anderes sind
Halluzinationen. Halluzinationen sind wie die Natur von LLMs. Sie generierten früher
falsche oder unsinnige Informationen Wenn Sie HAT GPT häufig
verwenden, sollten
Sie darüber
Bescheid wissen Manchmal gab es auch
sehr irrelevante Antworten auf
einfache Fragen Es liegt an Halluzinationen. Okay. Abgesehen davon gibt es
viele Dinge aufgrund falscher Informationen den Trainingsdaten,
es kann halluzinieren Okay? Es gibt also zwei Probleme. Zum einen ist begrenztes
Wissen abgeschnitten. Das heißt, es gibt
keine neuesten Informationen und dann Halluzinationen. Okay. Also beide Dinge sind
wichtig, denn für die Verwendung von LLM ist
es wichtig, die
neuesten Informationen zu haben, oder? In ähnlicher Weise wird das gesamte System mit Problemen konfrontiert
sein,
wenn diese
Informationen nicht zuverlässig sind, oder? Die Probleme sind sehr wichtig. Also müssen wir eine
bessere Lösung finden, oder? Hier
spielt RAG also eine wichtige Rolle. Rag hilft beim Zugriff
auf aktuelle Informationen
und versucht, Halluzinationen zu
vermeiden Okay? Wie funktioniert RAG? Der schrittweise
Prozess ist die Eingabeabfrage. Also stellst du zuerst
eine Frage, oder? Und dann Abrufen. Das Modell ruft relevante Dokumente aus einer
Wissensquelle ab Und dann Generierung. Das Modell generiert eine Antwort auf
der Grundlage der Abrufinformationen Also oder die Benutzereingabeabfrage. Zunächst ruft das
Abrufsystem relevante Dokumente aus
einer Wissensquelle oder externem Wissen Sobald
die Kontextinformationen abgerufen wurden, werden
diese
Kontextinformationen zusammen mit
der Eingabeabfrage an die LLMs
gesendet , um die Ausgabe abzurufen Hier ist es also der
gesamte Arbeitsablauf von Rag. Aber es gibt zwei Dinge. Eine ist eine Zeitaufgabe, eine
andere ist die regelmäßige Nutzung. Eine Zeitaufgabe ist so, als
müssten wir die Dokumente laden, oder? Nehmen wir also an, dass
Sie eine Organisation
innerhalb Ihrer Abteilung leiten Möglicherweise müssen
Sie davon ausgehen, dass
Sie fünf Abteilungen haben. Okay? Jede Abteilung hat ihre eigenen Richtlinien und einige Details über die
Abteilungen, richtig? Angenommen, jemand stellt einige
Fragen zu Ihrem Unternehmen. Er kann den LLM nicht sofort
fragen. LLM wird diese Daten nicht haben
, oder? Sie werden diese Daten haben. Aber wir können nicht alle
Daten an die LLMs senden. Okay? Nehmen wir in diesem Beispiel an, wenn jede Abteilung über
eine PDF-Datei verfügt, können
wir nicht fünf
PDF-Dateien zusammen
mit der Benutzeranfrage
an das LLM senden , okay? Aufgrund dieser Beschränkung des
Kontextfensters. Jedes LLM hat ein
bestimmtes Kontextlimit. Wir können keine
große Datenmenge senden. Okay? In diesem Fall gibt es ein
Limit, wir müssen nur
das relevante Dokument
zusammen mit der Benutzeranfrage senden . Zu diesem Zweck müssen
wir
zunächst alle Dokumente in einer Vektordatenbank speichern. Okay? Es gibt
verschiedene Herangehensweisen. Ich spreche nur über den
gemeinsamen Ansatz, okay? Zuallererst müssen wir
die Dokumente in einer
Vektordatenbank speichern . Vektordatenbank, die Suche wird sehr schneller gehen
, weil der Grund dafür ist, dass die Daten in einem
numerischen Format gespeichert
werden , okay? Es wird also
den Textinhalt
in unseren Bildinhalt
in die entsprechende Zahl umwandeln . Okay. Es werden
nur die Zahlen, Zahlen und der
dazugehörige Text gespeichert. Die Suche wird jedoch auf
der Grundlage der Zahlen erfolgen. Also im Grunde
wird es sehr schnell gehen, okay? Und es wird wirksam sein. In diesem Sinne wirksam, werde
ich erklären. Okay. Also zuallererst
ist es sehr schnell, okay? Also mussten wir
die Dokumente in
eingebettete Dokumente umwandeln ,
wie gesagt, es ist eine numerische Darstellung dieses Inhalts Dafür mussten wir
etwas LLam zum Einbetten verwenden. Dafür, äh, wird der Talam anders
sein. Sie werden
Einbettungsdienste anbieten. Wir müssen die
Einbettungsdienste nutzen und dann die Dokumente
in gleichwertige Einbettungen konvertieren und in einer
Vektordatenbank speichern Es gibt verschiedene
Vektordatenbanken wie Chroma TV, Facebooks Pies und Und im Fall von Chroma
TV können wir es lokal verwenden. Es ist Open Source. Es gibt verschiedene
Vektor-Datenbanken. Wir müssen die Daten
in einer Vektordatenbank speichern. Es ist ein einmaliger Prozess. Ein Mal,
bevor wir unser System in Betrieb nehmen
, müssen
wir dies zunächst müssen
wir Wie gesagt, diese Vektordatenbank, diese Suche wird schneller sein, und ein weiterer Vorteil ist,
dass es sich um eine semantische Suche handelt Okay. Es werden also nicht nur
Keywords gewechselt, sondern auch die
semantische Suche unterstützt Dass die Effektivität
dieser semantischen Suche davon abhängt, welche Art von LLM wir für die
Erstellung der Einbettungen verwenden Das ist ein ganz anderes Thema. Wie beim Rag
im Fall von Rag ist
der gesamte Stretch sehr einfach LLM weist einige Mängel auf. Wir werden diese
Probleme mit Hilfe externer Daten Dafür
benutzen wir also diesen Lappen. Also ergänzen wir nur den generativen Prozess
mit dem Retrievalschritt Das ist der eigentliche Schlüssel. Das ist ein Lappen. Okay.
Das ist sehr einfach. Aber im Fall von Implementierungen
und anderen Dingen, die auf den
Anforderungen und der Nutzung
basieren, gibt es da oben verschiedene
Dinge, okay? Aber der Umfang dieses Videos
besteht darin, die Grundlagen zu vermitteln. Ich spreche in diesem Video nur die
Anfänge an. Ich halte
es einfach sehr einfach, okay? Also werden die Dokumente Einbettungen
umgewandelt und in einer
Vektordatenbank gespeichert Das ist ein Zeitschritt, okay? Und dann kommen wir zum
eigentlichen täglichen Prozess. Benutzer also eine Frage stellt, diese Abfrage auch in eine
Verkörperung umgewandelt , die
als Abfrageeinbettung bezeichnet wird Okay, Kory-Vektor. Also der gesuchte
Abfrage-Vektor wird verwendet, um den relevanten
Eintrag in der
Vektor-Datenbank zu suchen , okay Nehmen wir zum Beispiel an,
wir durchsuchen in unserem Beispiel fünf Abteilungen. Wenn Sie also fragen, ob der
Benutzer eine Frage zu einer bestimmten
Abteilung stellt, beispielsweise, fragt er nach der
zweiten Abteilung und diese Abfrage wird in diese Einbettungen
umgewandelt
, diese Korey-Einbettung wird anhand dieser Einbettungen von
Vektordatenbankdokumenten
durchsucht,
es ist
also so, als würde man die Daten finden, die sich auf
die zweite Abteilung
beziehen er nach der
zweiten Abteilung und Abfrage wird in diese Einbettungen
umgewandelt
, diese Korey-Einbettung wird anhand dieser Einbettungen von
Vektordatenbankdokumenten
durchsucht, Korey-Einbettung wird anhand dieser Einbettungen es ist
also so, als würde man die Daten finden, es ist
also so, als würde man die Daten finden . Das ist also die Natur
dieser Vektorsuche. Okay. Hier wird es sowohl schnell
sein als auch semantische
Suchen durchführen.
Das ist hier der Schlüssel. Nachdem Sie also einmal die
relevanten Informationen erhalten haben, wird das
jetzt
als Kontext-Chunks bezeichnet Das ist wie bei
der Erweiterung,
sie wird zusammen mit der Anfrage hinzugefügt und dann an
das LLam gesendet, um
die Antwort zu erhalten LLam gesendet, um
die Antwort Jetzt wird es wie eine verwandte Antwort
sein. Okay. Der gesamte Prozess,
einmalige Prozesse, Speichern der
externen Daten der Dokumente als Einbettung mit
LL-Einbettung. Okay? Und der eigentliche Prozess besteht darin, die
Benutzerabfrage in eine Einbettung umzuwandeln und dann eine Vektorsuche durchzuführen Es gibt verschiedene
prozentuale Ähnlichkeiten zwischen
diesen
Ansätzen Okay. Auf dieser Grundlage müssen
wir also die
relevanten Blöcke finden
und die Eingabeaufforderung mit diesen
Kontext-Blöcken erweitern , okay? Die Aufforderung sieht so aus, als
müssten wir die Abfrage und die
Blöcke
angeben und dann
zusätzliche Informationen bereitstellen , z. B. die Kontextinformationen verwenden, um
die Antwort auf diese Abfrage zu Abfrage und die
Blöcke
angeben und dann
zusätzliche Informationen bereitstellen, z. B. die Kontextinformationen verwenden, um
die Antwort auf diese Abfrage zu
geben. Auf diese Weise stellen wir auch eine
Systemaufforderung zur Verfügung, okay. Endlich werden wir also
die entsprechende Antwort erhalten. Das ist das Kernkonzept von Rag. Also, wenn Sie dieses RAG-Ding nicht
benutzen,
dann sind wir vielleicht
irrelevant verantwortlich. Dieser Prozess gibt dem
LLM den Boden. Das ist eine Sache.
Und wie ich bereits sagte, wird es nützlich sein, um die
neuesten Informationen zu erhalten. Das LLM verfügt möglicherweise nicht über
die neuesten Informationen, aber der Kontext-Chunk wird über die
neuesten Informationen verfügen Es wird diese Informationen verwenden
. Die Komponenten sind also eine
Wissensquelle für den Ager Retriever Generator Der Retriever durchsucht also eine große Wissensbasis nach
relevanten Informationen Es gibt verschiedene
Retriever, die dort sind. Generator. Es ist wie das GPT-Modell. Es ist ein normaler LL Lum und
die Wissensquelle. Damit ein Retriever
die Daten abrufen kann, müssen
wir also die richtigen Daten haben Für diese Daten,
im Fall einer
Vektordatenbank, müssen
wir also im Fall einer
Vektordatenbank, die Details richtig speichern Dafür müssen wir also eine
Wissensquelle verwenden. Es kann so sein, wie ich bereits sagte. Es kann sich um beliebige
Dokumentsymbole handeln, oder es kann sich um einen
Crawler handeln, der die
neuesten Informationen aus
verschiedenen Webquellen crawlt , oder um jede Art von
Datenbankanwendungen, die Rag sind Es
gibt also viele Anwendungen, okay? Eine davon liegt auf der Hand
: die Beantwortung um genaue Antworten auf die Anfragen der Benutzer zu
erhalten, und Chatbds, um fundiertere Informationen und von Fragen,
um genaue Antworten auf die Anfragen der Benutzer zu
erhalten, und
Chatbds, um fundiertere Informationen und
den Kontext unserer Konversationen zu erhalten,
da wir die
Kontextinformationen senden können, sodass sie auf
der Grundlage der Kontextinformationen
und der Erstellung von Inhalten,
iterierenden Artikeln,
Zusammenfassungen oder Berichten ordnungsgemäß
funktionieren können auf
der Grundlage der Kontextinformationen
und der Erstellung von Inhalten,
iterierenden Artikeln,
Zusammenfassungen oder Berichten ordnungsgemäß
funktionieren der Grundlage der Kontextinformationen
und der Erstellung von Inhalten,
iterierenden Artikeln, Zusammenfassungen Wir müssen
externe Daten bereitstellen
, damit LLM die Inhalte mit mehr Informationen erstellen kann erstellen Okay? Also Kundensupport ,
wenn der
Benutzer irgendwelche Fragen stellt, stellt
der Kunde die Fragen, und
das System wird mit Hilfe dieses externen Wissens in
der Lage sein, die
richtige Antwort zu geben . Wenn zum Beispiel ein Krankenhaus ein Kundenbetreuungssystem
betreibt, kann
der Benutzer dem System
alle Fragen in natürlicher Sprache stellen, und das Rag-System
kann den Inhalt durchsuchen, die relevanten Inhalte aus der Wissensquelle
abrufen und dann auf die Antwort antworten. Also im Grunde kann ich das auf zwei Arten
sagen. eine ist wie das vorherige
Retrieval-System, in diesem Fall dieses
Krankenhaus-Kundenbetreuungssystems Bisher musste
der Vertreter
im Krankenhaus
, wenn jemand
Fragen stellt, der Vertreter
im Krankenhaus einige
Do-Dateien oder Datenbanken durchgehen Er muss die Stichwortsuche durchführen und dann die Antwort geben, richtig? Das ist also der traditionelle
Weg, okay? In diesem Fall kann er
die Antwort nur erhalten , wenn die
Keywords übereinstimmen. Das ist die Einschränkung. Er kann die
natürliche Sprache nicht benutzen. Er kann nicht jeden
Tag einfache Sprachen benutzen. Er muss die
Schlüsselwörter richtig verwenden. Im Falle von LLM können wir natürliche Sprache
verwenden. Aber das Problem ist, dass es die Daten
nicht haben wird. Um von beiden
Dingen zu profitieren, ist das der Name Rag. Wir erweitern den
generativen Prozess mit Hilfe
des Abrufs
dieser Inhalte Erweiterung der Generierung durch
Abruf, erweiterte Generierung Abruf Vorteile und Einschränkungen. Vorteile, Sir, natürlich können
wir die
neuesten Informationen erhalten, Echtzeit oder aktuelle
Informationen, reduziert Halluzinationen Es kombiniert das Beste aus
Abrufen und Generieren. Das sind also offensichtliche
Vorteile von Rag. Einschränkungen. Auch hier kommt es auf die Qualität der
Wissensquelle an. Selbst wenn Sie in der Lage sind,
die externe Wissensquelle zu nutzen , wenn die Qualität nicht gut ist , werden die
Probleme weiterhin bestehen. Es hängt also von der Qualität
der Wissensquelle ab und ist
rechenintensiv. Die Konvertierung der Dokumente in eine Vektordatenbank erfordert viel Rechenleistung Und wenn Sie eine API verwenden, wird die API-Nutzung etwas kostspielig
sein nicht dem
generativen Niveau dieser Kosten entsprechen, aber wir
müssen trotzdem dafür bezahlen. Okay? Also rechenintensiv. Und im Vergleich zu
anderen Ansätzen sind hier nur wenige kurze Lernmöglichkeiten anderer
Dinge, die für den
Datensatz für das Training empfohlen werden,
vergleichsweise hoch Wir müssen eine
beträchtliche
Menge an Daten in den externen Daten haben. Lassen Sie mich Ihnen
eine einfache Demo zeigen. Okay. Also normalerweise
gibt es zwei Herangehensweisen, okay. Einer ist zum Beispiel die Verwendung der kostenlosen
Open-Source-Modelle. Okay? Wir haben eine Menge Dinge. Okay. Sie können
im Wandertempo oder in Cagle suchen Wir können zum Beispiel viele Modelle zum
Einbetten bekommen. Okay. Aber meiner Erfahrung
nach, wenn wir die Einbettungsmodelle verwenden von großen
Organisationen wie Open AAA
bereitgestellt werden, dann wird die
Leistung gut sein und im Grunde wird sie besser
sein, okay Aber wir müssen
für sie bezahlen, okay? Aber das ist eine Sache. In diesem Beispiel zeige
ich ein einfaches
Beispiel mit der Puggin-Phase Aber im tatsächlichen Gebrauch habe ich
hauptsächlich A APA geöffnet Okay. Also hier, die
Codierung, zuerst wir die
Plattenbibliotheken Also dieser Code, wir verwenden jede Kette. Lang Chin ist ein Framework oder eine
Bibliothek für Entwicklungen. Es wird einfach sein,
verschiedene Modelle und verschiedene
Arten von Vektordatenbanken zu handhaben . Uh, die Kodierung wird ein Symbol
sein, okay? Aber die Wartung, meiner Erfahrung
nach, besteht darin,
ständig ihre Bibliotheken zu ändern , Dinge, okay? Aber der offensichtliche Grund ist dass sich A
sehr schnell entwickelt, oder? Also, um das
zu verstehen,
aktualisieren sie ständig ihre
Bibliotheken, okay? Ähm, und außerdem, wenn Sie
die Kodierung einzeln verwenden, wird es einfach sein, das
Konzept zu verstehen. Aber im Fall von Lang Chain nehmen
Sie an, wenn Sie
Leistung entwickeln , wenn Sie viel Zeit
sparen wollen, dann können Sie sich für die Lang-Kette entscheiden. Aber zu Lernzwecken würde
ich empfehlen, alles separat zu machen, ohne irgendein
Framework oder Bibliotheken zu verwenden. Okay. Aber als Anfänger, um einen Überblick zu geben, verwende
ich hier Lang Chain, okay, damit du
den gesamten Ablauf leicht verstehen kannst ohne von
jeder
einzelnen Codierung abgelenkt zu werden , okay Hier sind wir insgesamt so, als würden wir alle
Datensatzbibliotheken
eingeben Okay? Also die
ersten Schritte, wir sind zwei, wie ich im Diagramm erklärt habe.
Äh, es gibt zwei Dinge. Einer ist ein Zeitschritt, und eine andere Sache ist
der eigentliche Ablauf wie das Abrufen und
Erweitern der Eingabeaufforderungen
und dann die Generierung Also das sind drei Schritte. Also ein Schritt ist der erste
Schritt ein Zeitschritt, dann wieder drei Schritte
für jede Abfrage, richtig? Das Erste ist also, wir bereiten die Dokumente vor. Also hier ist es sehr einfach.
Also nur zur Erklärung. Ansonsten würde ich darum bitten, dass
jedes Dokument etwa
zwei, drei Seiten lang ist . Okay? Hier hilft Vitamin C also, das Immunsystem zu
stärken, Sport zu treiben, die geistige und
körperliche Gesundheit zu verbessern. Wenn Sie
genug Wasser trinken, bleiben Sie hydratisiert und verbessern die Konzentration Okay? Es ist eine Frage und Ändern ist ein wichtiges
Konzept in einer RAG, okay? Also müssen wir ändern, das heißt, das Dokument
in verschiedene Abschnitte
aufzuteilen ,
damit es
in den Kontextdrucker
der LLL passt in den Kontextdrucker
der LLL Dafür müssen wir also auch für Überlappungen
sorgen. Ich möchte
hier also nicht alle Details
angeben , damit wir uns quasi
voll und
ganz auf das Wesentliche konzentrieren können , wir bereiten die Dokumente vor
und ändern das, okay? Und dann das Einbetten,
das Erstellen der Einbettungen und das
Speichern im Feuer Okay, bessere Datenbank. Okay. Für die Erstellung der Einbettung müssen
wir also das
Einbettungsmodell verwenden, das wir verwenden, Umarmung der Basiseinbettung Hugging Wise zu verwenden, müssen
wir also die Hugging müssen
wir Okay? Also ich habe das Umarming We APA schon
geladen, ich meine, exportiert in den Norman Nehmen wir an, wenn Sie diesen Code verwenden
wollen, stelle
ich sicher, dass Sie die Umarmungsphase
geladen haben, Sie müssen also
die Details aus den Zugriffstoken
von hier, der Umarmungsphase, abrufen die Details aus den Zugriffstoken
von hier Und dann musst du es im Moment
laden. Dann kannst du diesen Code verwenden. Okay? Also
bereiten wir zuerst die Dokumente vor, auf, ich
meine, teilen sie auf und konvertieren dann den Teil in eine Einbettung und speichern dann die Einbettungen
in
der Vektordatenbank der Vektordatenbank Okay? Das ist ein
einmaliges Einrichten. Und dann die eigentlichen
Charts dafür verwenden
wir LL Lum, okay? Und als ob wir das
Y-Recht vergrößern würden. Indem wir diese Aufforderung geben, diese Aufforderung
vorbereiten. Wir verwenden diese
Eingabeaufforderungsvorlage, Sie verwenden im Grunde genommen bitten
wir das LLAM, diesen Kontext
für die Beantwortung dieser Frage zu verwenden Und es muss die
Antwort in diesem Format geben. Das ist der Kontext. Das ist die Frage. Du musst die Antwort so geben, wie wir sie fragen, oder? Das ist sehr wichtig,
weil
es sonst Antworten in einem
anderen Format geben wird. Aber ich
bereite das Beispiel vor. Ich habe dieses
Format nicht zum ersten Mal angegeben, daher hat es sich anders verhalten. Um das Beispiel zu nennen, ähm, ich bin gerade mit
dieser Vorlage angekommen. Okay? Jetzt erstellen wir also
die Lag-Kette. Und hier ist das eine
Benutzerabfrage. Wie wirkt sich Bewegung
auf die Gesundheit aus, okay? Sobald Sie diese Kette
ausgeführt haben, sollte
sie die Antwort geben. Wir drucken die Antwort aus. Okay? Also hier sind drei
Dinge da, richtig? Also lasst uns sehen, was passiert. Also führe ich dieses Skript aus. Nachdem ich das ausgeführt hatte,
gab es die Antwort OH verbessert sowohl die geistigen
als auch die körperlichen Fähigkeiten. Auf die Frage
gab es die richtige Antwort. Abgesehen von Männern gab es auch
eine Erklärung.
15. Verwendung von KI für digitales Marketing: Jeder. In diesem Video
werde ich
etwas über digitales Marketing
mit künstlicher
Intelligenz erklären etwas über digitales Marketing , okay? Hier werde ich
es mit Chant GPT,
Gemini, Deep Seek und Qn erklären Gemini, Deep Seek und Diese Art von berühmten LLMs,
große Sprachmodelle. Okay? Meistens können wir hier
bestimmte Funktionen
frei nutzen, okay? Abgesehen von diesen Dingen haben
wir auch viele spezielle
Tools da, Artikel
zu schreiben,
können wir Jasper Punkt A verwenden. Und die Kopie von EA hat
eine Menge Funktionen Aber ich werde diesen Weg nicht einschlagen. So kann jeder mit Hilfe der frei verfügbaren
gängigen KI-Tools ganz einfach damit
beginnen, digitales
Marketing zu nutzen . Okay. Also hier können wir zunächst beginnen, HAGPT
nach digitalem
Marketing mit KI zu fragen damit
beginnen, HAGPT
nach digitalem
Marketing mit KI zu fragen, es gibt
viele Informationen Auf diese Weise können
wir einfach Brand Storming
mit CHAPT durchführen , um
viele Informationen zu erhalten Hier wurden verschiedene Dinge aufgelistet. Wir können es auf diese
Weise durchziehen. Okay. Eine wichtige Sache ist, anstatt den Text hier einzugeben, können Sie
vielleicht
diesen Sprachmodus verwenden, sodass wir
ununterbrochen sprechen können und der Hut GPT per Spracheingabe antwortet Sie können einfach die
mobile App herunterladen und einfach mit dem GPT
mit dem Hut sprechen Und am Ende des
Vortrags können wir die Transkription und auch
den Text
durchgehen Transkription und auch
den Text
durchgehen Das wird sehr nützlich sein. Hier bin ich nur zu Demonstrationszwecken, ich tippe nur den Text hier ein
und sehe mir diese Dinge an, okay? Also in der ChargBD die
erste Startanleihe. Sie können einfach mit
CharPT sprechen . Denken Sie immer daran
, dass diese Arten von LLMs, har GBT, Yemeni, Deep C, Cuban, all diese LLMs nicht zuverlässig sind,
also müssen Sie sehr vorsichtig damit Sie können es also einfach für
irgendeine Art von Arbeit verwenden, aber verlassen Sie sich nicht vollständig auf sie und verwenden Sie diese Ausgabe nicht als endgültige Sache Überprüfe
diese Dinge manuell, okay? Lass mich erklären, wie man
es effektiv einsetzt, okay? Es ist wahr, dass all diese
LLMs wirklich mächtig sind. Sie können
Artikel schreiben, sie können Bilder
erstellen, sie
können Videos erstellen und sie können alle
Arten von Formatänderungen vornehmen, und sie können
viele Berechnungen durchführen und sie können Code erstellen. Viele Dinge, die
für digitales Marketing nützlich sind , aber nicht zuverlässig sind, die wir uns immer
erinnern müssen, okay? Weil sie Halluzination
unterliegen und Vorurteile ebenfalls vorhanden sind Es gibt viele Dinge, okay? Also, bevor wir anfangen,
diese Art von LLMs
für echte Geschäfte zu verwenden , müssen
wir zuerst diese Art
von Einschränkungen verstehen , okay? Wir müssen also auch wissen,
wie wir mit ihnen umgehen können. einem gewissen Grad können
wir diese LLMs so begründen, dass zu einem gewissen Grad können
wir diese LLMs so begründen, dass sie ein
gewisses Maß an Zuverlässigkeit bieten, wir können sie zuverlässig machen Okay? Also lass uns einfach durchgehen, wie man solche Sachen macht
, okay? Also fang zuerst mit
Brand Storming an. Ich werde dir eine Menge Dinge geben. Und wir müssen die
schnellen technischen Tipps anwenden, okay? Wir müssen
klare und
präzise Fragen stellen , und das sollte klar sein Wir sollten den Kontext angeben, und wir müssen so etwas wie ein paar Shot
Prompting verwenden , einige Beispiele nennen, und wir müssen die Kette bis
zum Ende verwenden, wenn wir
das CAGBT
bitten sollen, die Verarbeitung Schritt für
Schritt durchzuführen, solche CAGBT
bitten sollen, die Verarbeitung Schritt für
Schritt durchzuführen, Okay. Das sind also die
grundlegenden Dinge, okay? Ähm, sobald Sie mit den
Prompt-Engineering-Dingen
vertraut sind und die Grenzen von
CharPT oder anderen LLMs
kennen, dann ist es besser,
dies für
digitales Marketing zu verwenden Es ist wirklich sehr, sehr
nützlich, okay? Also können wir zuerst mit der Erstellung von,
äh, Artikeln, Blogbeiträgen
beginnen . Das ist der erste Punkt im digitalen
Marketing-Funnel, oder? Im Moment verkaufe ich Kurs für
künstliche Intelligenz für Anfänger Ich habe vor, dafür zu
werben, oder? In diesem Fall bitte ich HRBT nur
darum, einen Blockpost vorzuschlagen
, um für meinen A-Kurs zu
werben, okay? Ich gebe uns nur
ein einfaches Beispiel, aber Sie müssen die
Aufforderungsfähigkeiten richtig einsetzen Okay, du musst den
ganzen Kontext und klare
Informationen und alles angeben den
ganzen Kontext und klare
Informationen und alles Okay. Aber hier
spreche ich schon mit HarGBT Ich habe viele
Dinge im Speicher gespeichert, und im Kontext gibt
es auch einige Informationen So wird es in der Lage sein,
eine angemessene Antwort zu geben. Es schlägt also nur einige gute
Artikeltitel vor, oder? Sie haben den Titel und
einige Vorschläge zur
Verwendung bereitgestellt , okay? Also sind sie wirklich relevant
für meinen Kurs, okay? Okay. Und dann können wir auch darum bitten,
eine echte Black
Post zu erstellen, okay? Vielleicht kannst du dich also
bitten,
schwarze Post für Nummer
eins Nummer zwei zu erstellen , du kannst fragen, oder
du kannst einfach, wenn du diesen erstellen
willst . Okay, lass mich das fragen, richtig? Schwarzer Beitrag für den Titel. Wir müssen eine
Reihe von Charakteren
oder irgendwelche Richtlinien bereitstellen , die sich an Anfänger,
Fortgeschrittene oder Laien
richten . So etwas müssen wir geben, okay? Hier kannst du Befehle geben
wie diesen Abschnitt ändern, diesen Abschnitt
ändern und diese Wörter so
ersetzen,
du kannst hier Befehle geben. Es ist wie kollaboratives Zeug. Diese Funktion wird
sehr nützlich sein, um Artikel
und E-Books zu
schreiben, okay Für
digitales Marketing ist die
Veröffentlichung von E-Books also auch
eine Möglichkeit, ist die
Veröffentlichung von E-Books also auch effektives Marketing zu betreiben. Dafür können wir HagbTGI DC
verwenden. Hier, sagst du,
lass mich wissen, ob du Wochen oder
Ergänzungen magst Wochen oder
Ergänzungen magst Du kannst sagen, dass du diesen Abschnitt
hinzufügst. Wenn Sie also einen zusätzlichen Abschnitt
haben möchten
oder wenn Sie der Meinung sind, dass
er lang ist, können
Sie ihn bitten, dieses Netzwerk zu
entfernen, oder wir können sagen, wir können sagen kombiniert vier
und zum Beispiel, ich sage, okay, kombinierte
Abschnitte vier und fünf. Okay. Also wird es es neu schreiben, okay. Also dieses Feature, wie gesagt, es ist wirklich gut Wenn Sie diese Funktion jedoch nicht verwenden
möchten, können
Sie ein neues
Diagramm öffnen und dort nach
den Korrekturen fragen. Sie müssen nur
den vorhandenen Inhalt kopieren und dann können Sie SBT bitten,
die Änderungen vorzunehmen Aber anstatt das zu tun, wird
das sehr nützlich sein Hier kombinierst du Dinge. Okay? Wenn du also darum bitten
möchtest, diesen
Abschnitt mit weiteren Details zu erweitern, kannst
du darum bitten, ihn
hier so zu erweitern. Okay? Also hier, du kannst hier
mehr Details angeben, okay. Also diese Art von Zusammenarbeit, dieses Verfassen, diese Funktion , die nützlich ist, um einen schwarzen Beitrag zu
schreiben. Okay. Okay. Also, da ich den Link schon bewiesen habe, benutzt
es diesen Link. Okay? Dass wir sehr vorsichtig
sein müssen, okay? Ich schätze, wenn du
das für ganz
andere Kunden machen willst , musst du
vielleicht
den Speicher zurücksetzen, okay? Dass wir uns an
diese Dinge erinnern müssen, okay? Und dieser hier ist klar, oder? Also können wir Charge B verwenden,
um schwarze Post zu schreiben und die
schwarze Post zu verbessern und so. Und das ist ein Schritt, aber die beste Vorgehensweise
ist, dass Sie das
einfach kopieren und nach Deutschland bringen und
Deutschland bitten müssen das
einfach kopieren und nach Deutschland bringen , es zu
verbessern, und Sie können
Deutschland fragen , ob es
hier irgendwelche Fehler gibt, denn wie gesagt, Frauen sind anfällig für Fehler, okay? Sie können Deutschland fragen, ähm,
nachschauen, ob es dort falsche
Informationen gibt. Durch die Kombination mehrerer LLMs können
wir die Vorbereitung des
Blogposts effektiv und einfach durchführen Es gibt einige
Vorschläge, entweder können Sie
diese Dinge manuell tun oder Sie können Gemini
einfach bitten,
diese Dinge anzuwenden und
Ihren Also wird es den Artikel neu schreiben indem es diese
Vorschläge anwendet, okay? Aber wie dem auch sei, Sie
müssen diesen Artikel endlich vollständig überprüfen Andernfalls
kann es immer noch einige Probleme geben, okay? Und natürlich
können Sie Gemini oder
RGPT bitten , einem
professionellen Umgangston oder
einer lustigen Schreibweise zu folgen professionellen Umgangston oder
einer lustigen Schreibweise Damit du es
immer spezifizieren kannst, okay? Es liegt also an Ihnen, basierend
auf Ihren Empfehlungen. Es ist also quasi Teil von
Prompt Engineering, oder? Sie müssen also, wie
gesagt, zuerst mit Prompt
Engineering
sehr vertraut sein ,
und dann können Sie anfangen, es für verschiedene Zwecke zu verwenden, Dinge in Blogbeiträgen zu
schreiben, okay? Also kannst du Deutschland bitten, es zu schreiben, auch wenn du dafür ein
Bild zur Repräsentation benötigst , du kannst es bitten, ein
Bild für diesen Beitrag zu erstellen, okay? Es wird also ein Bild erstellen. Und wieder kannst du zuerst
mit dem Seitenverhältnis anfangen, okay? Wenn Sie ein Spa-Bild wünschen, haben Sie ein Seitenverhältnis von
16 mal neun. Du musst
das Ding auch zur Verfügung stellen, okay? Und wenn du das Bild schon
hast, kannst
du es einfach hochladen
, okay? Es hat dieses Bild bereitgestellt. Aber du musst sehr vorsichtig sein. Fast alle Schreibweisen
werden völlig falsch sein. Das ist der aktuelle Stand
der Image-Erstellung, okay? Sie können Deutschland also bitten, Bilder
ohne jegliche Worte
zu erstellen , okay? Das wird ein Ansatz sein. Oder Sie können Dinge manuell
ändern. Und wie gesagt, du kannst jede Art von Bildern
hochladen
und dann kannst du Deutschland bitten, die Korrekturen vorzunehmen oder dich
von diesem
Bild inspirieren zu die Korrekturen vorzunehmen oder dich lassen, okay? Es können viele Dinge getan werden. Okay? Du kennst also
zuerst die Grundlagen. Welche Funktionen sind mit diesen Tools
verfügbar? Okay? Wir können Dateien hochladen, wir können Bilder hochladen, wir
können den Voice-Chat machen. Mit solchen Dingen
müssen wir vertraut sein. Und dann liegt es an
unserer Vorstellungskraft. Wir können es effektiv nutzen,
indem wir verschiedene Dinge miteinander kombinieren, okay? Wir können hochwertige schwarze
Posts und relevante Bilder erstellen. Und wenn Sie
YouTube-Videos erstellen, können
Sie von hier aus
Miniaturbilder erstellen Okay. Hier musst du das Seitenverhältnis angeben.
An manchen Orten. Aber in Q One gibt es
diese Option bei
der Bilderzeugung, es wird nach dem Seitenverhältnis gefragt. Bei Typ 9 kannst du uns 169 geben, okay? Sie für das Video Bus A. Okay. Also haben wir hier die Bilderzeugung ausgewählt,
dieses Seitenverhältnis Sie müssen sich also keine Gedanken
über das Aspetverhältnis machen. Aber im Fall von Gemini müssen
wir das Asper-Verhältnis, Unluck A, aber die Registrierung manuell
angeben Unluck In ähnlicher Weise können wir PPC kombiniert ausführen. Nehmen wir zum Beispiel an, wenn Sie für Google Ads
kandidieren, können
Sie fragen, ob ich
Google Ads betreibe . In den Schlagzeilen steht zum Beispiel,
dass ich fragen kann Ich frage es in Q, genauso können wir
es in
GBTLF fragen, besser, wir können den Chat starten. können wir
es in
GBTLF fragen , besser, wir können Wir müssen verstehen, dass diesen LLMs bestimmte
Kenntnisse vorenthalten werden, okay? Sie werden nicht über die
neuesten Informationen verfügen, aber sie haben die Möglichkeit, im Internet
zu suchen, aber das wird nicht so natürlich sein
wie vorgefertigte Informationen Wann immer Sie es mit
den neuesten Informationen zu tun haben , nehmen Sie
einfach zusätzliche Informationen mit. Okay. Also hier gab es eine Beschreibung der
Überschrift. Es lieferte also alle
Details. Okay. Du kannst auch Tastaturen mit hohem
Bekanntheitsgrad anbieten, okay? Okay. Also hier ist es in der
Lage, Kopien zu erstellen, und es schlägt
Tastaturen vor. Okay. Aber wie gesagt, es ist
nicht sehr zuverlässig. Wie dem auch sei,
wir müssen immer mit den
Keyword-Tools nach
Volumen suchen . Okay? So wie es nur eine Anleitung ist. Okay. Und ähnlich, hier auch in der Tiefsee oder in
Deutschland oder auch hier. Da wir
über das Bild gesprochen haben, hat
es ein Bild geschaffen, das kopiert wird. Okay. Ken
schlägt auch Dinge vor. Nur um es manuell
durchzugehen, oder du kannst alles kopieren
und in
ein Alaun legen und es bitten, alles zu kombinieren und das beste
auszuwählen, auch
so Also erkunde einfach verschiedene Dinge,
je nachdem, was für dich funktioniert, benutze es
weiter, okay? Hier schlage ich
einige Tastaturen vor. Vielleicht können wir Ihnen
die Liste der Tastaturen geben. Wir bekommen also einige Keywords von hier und einige Keywords
von dort, richtig Nehmen wir an, wenn Sie etwas Einzigartiges
finden möchten, können
wir entweder fragen, ob Sie mit Python-Kenntnissen
vertraut sind , Sie können Python oder
jede Art von Entwicklung fragen. Sie können ChagBT Germany bitten, dafür
einen Symbolcode zu erstellen Andernfalls können Sie das
LAM selbst bitten, die Dinge zu erledigen. Okay? Füge diese Dinge zusammen, füge
auch diese Keywords hinzu und gib mir die endgültige Liste. Gib mir das My
ohne Datenbankkürzungen. Okay, ich werde beide Dinge kombinieren und es wird dir eine
einzigartige Liste von Schlüsselwörtern geben. Okay? Es ist also eine Möglichkeit,
MS für die Erstellung von Schlüsselwörtern zu verwenden. Und sie bieten eine
breite Übereinstimmung, richtig. Nehmen wir an, Sie möchten sie als Wortgruppe
konvertieren. Entweder kannst du
es darum bitten, oder du kannst einen
symbolischen Python-Code erstellen, okay? Hier hat es Codes
hinzugefügt, richtig. Und genauso können Sie es
bitten, es zu einem EAT-Match zu bringen. Sie verbinden EAT Match, okay? Das sind alles
sehr einfache Dinge,
aber wenn Sie einmal damit angefangen haben, können
Sie es verstehen oder Sie
können verschiedene Möglichkeiten ausprobieren es effektiv zu
nutzen, basierend
auf Ihren Empfehlungen, okay? Es wird also in der Lage sein,
Blogposts zu erstellen, Blogposts und
Titel vorzuschlagen und Tastaturen zu erstellen, Kopien
hinzuzufügen, okay Im Falle von Werbung in sozialen
Medien können
Sie es bitten, Tweets oder Instagram-Beiträge zu erstellen Also alles, was auch immer Sie tun möchten, Sie
können es einfach fragen. Aber wir müssen
die Anweisungen richtig geben und die Ergebnisse ordnungsgemäß überprüfen Das sind Dinge, die wir tun
müssen, okay? Oder einige Aktivitäten, vielleicht
etwas besser
aufladen , Deutschland
wird besser sein. Für das Extrahieren von
Details aus YouTube-Videos Deutschland besser geeignet Angenommen, Sie möchten eine detaillierte
Zusammenfassung der
YouTube-Videozusammenfassung erhalten detaillierte
Zusammenfassung der
YouTube-Videozusammenfassung Sie können einfach das Video Hier,
ich habe es für Bana bereitgestellt geben . Ich werde einfach mal Deutschland bitten, diesen Artikel zu
schreiben, habe dieses Video gemacht. Es wird mir helfen, viel Zeit zu
sparen. Sobald ich das Video erstellt
habe, kann ich automatisch einen
Blogbeitrag oder jede
Art von Artikeln erstellen . Okay. Also drück auf irgendwas,
ich kann das einfach schicken. Es ist auch in der Lage
, die Details dieses Buches zu extrahieren. Diese Funktion wird von Gemini aus
nützlich sein. In ähnlicher Weise ist sie in der Lage, Bilder mit einem bestimmten
Seitenverhältnis
zu erzeugen, das wir haben können Wir müssen forschen. Meiner persönlichen Erfahrung nach jedes LAM
seinen eigenen Stent. Wir müssen nachforschen. Okay. Tschüss.
16. Google KI-Studio: Hallo zusammen, dieses Video dient der Erklärung von Google AI Studio. Google AI Studio ist eine sehr nützliche Anwendung. Es ist eine browserbasierte Webanwendung. Wir können einfach darauf zugreifen, indem wir aistudio.google.com im Webbrowser eingeben Es ist nützlich für die Entwicklung von KI-Anwendungen. Insbesondere ist es nützlich, um von Google bereitgestellte Modelle zu untersuchen. Hier können wir verschiedene Dinge untersuchen und dann den Code der Einstellungen abrufen, die wir hier angegeben haben. Wir können es einfach in unserer KI-Anwendung und Codierung implementieren. Das ist der Hauptzweck dieses KI-Studios. Hier können wir beispielsweise alle von Google bereitgestellten Modelle, Gemini-Modelle sowie Open-Source-Gemma-Modelle durchgehen. Hier können wir uns einen Überblick über jedes einzelne Modell verschaffen. Wenn Sie mit der Maus über ein bestimmtes Modell fahren, werden
hier die Details zu den Preisdetails, den Input-Output-Preisen und dem Zweck des Modells angezeigt. Am besten geeignet, am nützlichsten für welchen Zweck und für Anwendungsfälle und ein Stichtag für Wissen, Ratenlimit. Wir können alle wichtigen Informationen für alle Modelle abrufen, sodass wir das passende Modell auf der Grundlage unserer eigenen Anforderungen auswählen können. Das ist hier eine wichtige Sache. Wir können das Modell wählen. Hier können wir die anderen Einstellungen wie Temperatur oder andere Dinge vornehmen. Wenn wir hier die Temperatur auf 0,9 einstellen und einfach den Get-Code verwenden können. Hier im Get-Code wird es auf 0,9 gesetzt. Wir können den Code einfach kopieren. Wenn wir Python-Code verwenden wollen, können wir diesen kopieren oder wenn Sie planen, ihn in JavaScript, Go, Android zu verwenden. Wir müssen die entsprechende Sprache wählen oder Sie können sofort auch die cURL verwenden. Normalerweise verwendet Python häufig einen. Dies ist die Übersicht über Google AI Studio. Wir können die Erkundung hier durchführen und einfach den Code kopieren und in unserer Anwendung verwenden. Dafür benötigen wir nur diesen API-Schlüssel. Sie können den API-Schlüssel für die Verwendung von Google Gemini erhalten. Erstellen Sie einfach den API-Schlüssel und dann können wir ihn verwenden Zum Erkunden von Eingabeaufforderungen gibt es hier verschiedene Optionen. Der Ausgangspunkt ist, dass Sie, wenn Sie ein Anfänger sind, diese Eingabeaufforderungsgalerie verwenden können Hier finden Sie viele Beispiele. Sie können sie einfach durchgehen und einfach darauf klicken und einfach die Beispielaufforderungen ausführen und sehen, wie es für verschiedene Modelle funktioniert Wir müssen nur eine Aufforderung auswählen, „welche größer ist“. Wir können hier jetzt, ich habe Gemini 1.5 ausgewählt. Wenn wir darauf klicken, funktioniert es mit diesem Modell. Dieses Modell sagt diese Erklärung und lassen Sie uns einige fortgeschrittene Modelle ausprobieren. Wir können dieses Ding im Experiment verwenden. Es gibt eine detaillierte Erklärung. Indem Sie verschiedene Modelle untersuchen, können Sie herausfinden, welches Modell für Sie geeignet ist. Dazu finden Sie die Leistung und die Preisdetails sowie weitere Details. Endlich kannst du dich entscheiden. Sobald Sie diese Dinge gefunden haben, können wir, wie gesagt, einfach diese Option „Code abrufen“ verwenden und den Code kopieren und in unserer Anwendung verwenden. Dies ist die Übersicht über dieses Google AI Studio. Hier finden wir viele Beispielaufforderungen und Sie können auch verschiedene Dinge erkunden Bei diesem handelt es sich um eine experimentelle Bilderzeugung. Es ist sehr nützlich, da es derzeit in der regulären Google Gemini-Anwendung nicht verfügbar ist Hier können wir es auch für unsere regulären Eingabeaufforderungen verwenden. Wenn Sie zum Beispiel eine Geburtstagskarte erstellen möchten, können Sie sie verwenden, oder wenn Sie einen Comic erstellen möchten generiert
er eine Geschichte mit Bildern und die Bildbearbeitung ist wirklich mächtig. Nehmen wir zum Beispiel an, wenn Sie irgendeine Art von Bildbearbeitung machen möchten, können Sie das verwenden, zum Beispiel hier lade ich eine Datei hoch, ich lade mein Foto hoch und dann werde ich darum bitten, die Farbe zu ändern oder die Hemdfarbe auf Rot zu ändern Wenn du es eingibst, geht es zur nächsten Zeile. Wenn Sie es einreichen möchten, müssen Sie die Steuertaste verwenden oder auf diese klicken. Dieses Modell ist Gemini 2.0 Flash Image Generation. Es hat sich sofort die Farbe des Shirts geändert In ähnlicher Weise können wir viele Dinge tun. Nehmen wir zum Beispiel an, wir können es bitten, die Hintergrundfarbe zu ändern oder den Hintergrund zu entfernen. Es wird für verschiedene Zwecke nützlich sein. Die Bildbearbeitung wird hier sehr einfach gemacht. Auch zu diesem Zweck können wir es verwenden. Diese Funktion ist derzeit bei regulärem Google Gemini nicht verfügbar. Hier können wir es so verwenden. Aber in erster Linie dient es Entwicklungszwecken. Aber trotzdem können wir es auch für solche Dinge verwenden. In ähnlicher Weise werden alle zukünftigen Einführungen auch hier zuerst stattfinden. Es ist eine einfache Webbrowser-Anwendung. Wir können es einfach durchgehen. Wir können einfach anfangen, es zu benutzen. Es gibt auch andere Funktionen, wir können einfach den Bildschirm teilen und wir können alle Fragen über ein Mikrofon stellen und eine ausführliche Diskussion führen. Es ist, als würde man alle Modelle auf einfache Weise erkunden. Das ist der Zweck hier. Im Falle des Teilens auf Ihrem Bildschirm ist es meiner Meinung nach nur bei diesem Modell verfügbar. Zum Beispiel habe ich hier einen Blogbeitrag veröffentlicht. Wir können ihn fragen, was der Bildschirm so zeigt. Ich teile nur den Bildschirm. Was ist mit diesem Blogbeitrag? Es zeichnet sich durch schnelles Prototyping und Experimentieren, den Zugriff auf modernste Gemini-Modelle, vielseitige Benutzeroberflächen, einen nahtlosen SDK-Export und integrierte Sicherheitskontrollen aus. Möchten Sie, dass ich auf einen dieser Punkte näher eingehe? Können Sie uns sagen, wie Sie es effektiv einsetzen können? Sie möchten wissen, wie Sie Google AI Studio effektiv nutzen können. Stimmt das? Ja, richtig. Basierend auf dem Blogbeitrag scheint es, dass eine effektive Nutzung die Nutzung der Möglichkeiten zur schnellen Prototypenentwicklung und zum Experimentieren beinhaltet. Das bedeutet, Ideen schnell zu testen, anhand von Eingabeaufforderungen und Modellen zu iterieren und die schnellen Feedback-Schleifen zu nutzen. Darüber hinaus ist es wichtig, die vielseitigen Benutzeroberflächen für die effektive Kommunikation mit den Modellen zu nutzen. Schließlich müssen Sie möglicherweise die nahtlose SDK-Exportfunktion für die Integration in größere Anwendungen nutzen. Gibt es etwas Spezielles, über das Sie mehr erfahren möchten? Okay, das ist auch von Model by Visual Story. Es ist wirklich nützlich, für diese prompt generierte Geschichte von hier. Es erstellt das Bild und es ist auch sehr nützlich, dieses Modell intern zu verwenden. Okay. Du erstellst eine visuelle Geschichte für KI Es wird auch nützlich sein, um Videos zu erstellen, oder? Außerdem erstellen Sie einige nützliche Bilder. Wir können das Bild herunterladen. Okay, wie dem auch sei, es ist nur ein Beispiel, aber der Hauptzweck von Google AI Studio besteht darin, die neuen Modelle oder jede Art von Modellen zu erforschen. Es ist wirklich für neue Modelle und wir können mit verschiedenen Einstellungen testen. Wenn wir diese Parameter ändern, wird die Reaktion variieren. So können wir verschiedene Dinge visuell testen. Nehmen wir an, Temperatur ist in dem Sinne Kreativität. Wenn wir die Temperatur senken, wird diese Kreativität reduziert. Wenn Sie also sachliche Informationen wünschen, können Sie eine niedrige Temperatur einstellen. Das ist der Anfang, aber wir können es visuell testen. Und dann können wir endlich geeignete Dinge wählen. Okay, hier kannst du diese Dinge auch mitnehmen. Im Grunde können wir also sagen, dass es dazu dient, die Gemini-Modelle zu erforschen. Okay, also einfach zu verschiedenen Modellen und wir können sie untersuchen. Okay, und dann können wir diesen Get-Code verwenden und den Code in unseren KI-Anwendungen verwenden, indem wir diesen API-Schlüssel, den Gemini-API-Schlüssel, verwenden.