KI für Anfänger:innen | Rajamanickam Antonimuthu | Skillshare
Suchen

Playback-Geschwindigkeit


1.0x


  • 0.5x
  • 0.75x
  • 1x (normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Einheiten dieses Kurses

    • 1.

      Einführung in den Kurs „KI für Anfänger:innen“

      0:59

    • 2.

      Einführung in KI

      13:30

    • 3.

      Berühmte und nützliche KI-Tools

      9:30

    • 4.

      Eingabeaufforderung

      29:44

    • 5.

      Vorsicht vor KI-Halluzinationen

      10:50

    • 6.

      Google Teachable Machine – die einfachste Methode zum Training von KI

      7:48

    • 7.

      Die ultimative Liste der KI-Tools, die du 2025 erkunden kannst

      11:53

    • 8.

      KI-Jargon für Anfänger:innen

      28:23

    • 9.

      Lokale Untertiteldateien mit dem Whisper-Modell von openAI erstellen

      12:01

    • 10.

      Training eines einfachen TensorFlow-KI-Modells mit Google Colab

      8:42

    • 11.

      Scikit-Learn (sklearn) Beispiel

      9:22

    • 12.

      Tutorial zum Umarmen eines Gesichts

      15:15

    • 13.

      Der Spielplatz TensorFlow erklärt

      10:39

    • 14.

      RAG (Retrieval-Augmented Generation) Tutorial

      20:32

    • 15.

      Verwendung von KI für digitales Marketing

      17:21

    • 16.

      Google KI-Studio

      9:12

  • --
  • Anfänger-Niveau
  • Fortgeschrittenes Niveau
  • Fortgeschrittenes Niveau
  • Jedes Niveau

Von der Community generiert

Das Niveau wird anhand der mehrheitlichen Meinung der Teilnehmer:innen bestimmt, die diesen Kurs bewertet haben. Bis das Feedback von mindestens 5 Teilnehmer:innen eingegangen ist, wird die Empfehlung der Kursleiter:innen angezeigt.

9

Teilnehmer:innen

--

Projekt

Über diesen Kurs

Dieser Kurs „KI für Anfänger:innen“ soll dir eine solide Einführung in künstliche Intelligenz geben und umfasst grundlegende Konzepte, beliebte KI-Tools und praktische Beispiele. Ganz gleich, ob du neugierig auf KI bist oder Tools wie TensorFlow Playground, Teachable Machine und Whisper erkunden möchtest, dieser Kurs hilft dir dabei, selbstbewusst loszulegen!

Dazu gehören die folgenden Themen.

  • Was ist eigentlich AI? Ein einfacher Leitfaden für Anfänger:innen

  • Berühmte und nützliche KI-Tools

  • Eingabeaufforderungs-Engineering-Tutorial

  • Google Teachable Machine: Die einfachste Methode zum Schulen von KI

  • Die ultimative Liste der KI-Tools, die du 2025 erkunden kannst

  • Lokale Untertiteldateien mit dem Whisper-Modell von openAI erstellen

  • Training eines einfachen TensorFlow-KI-Modells mit Google Colab

  • Scikit-Learn (sklearn) Beispiel

  • KI-Jargon für Anfänger:innen

  • Tutorial zum Umarmen eines Gesichts
  • Der Spielplatz TensorFlow erklärt

  • RAG (Retrieval-Augmented Generation) Tutorial

Triff deine:n Kursleiter:in

Teacher Profile Image

Rajamanickam Antonimuthu

Interested in AI and other Emerging Tech

Kursleiter:in
Level: Beginner

Kursbewertung

Erwartungen erfüllt?
    Voll und ganz!
  • 0%
  • Ja
  • 0%
  • Teils teils
  • 0%
  • Eher nicht
  • 0%

Warum lohnt sich eine Mitgliedschaft bei Skillshare?

Nimm an prämierten Skillshare Original-Kursen teil

Jeder Kurs setzt sich aus kurzen Einheiten und praktischen Übungsprojekten zusammen

Mit deiner Mitgliedschaft unterstützt du die Kursleiter:innen auf Skillshare

Lerne von überall aus

Ob auf dem Weg zur Arbeit, zur Uni oder im Flieger - streame oder lade Kurse herunter mit der Skillshare-App und lerne, wo auch immer du möchtest.

Transkripte

1. Einführung in den Kurs „KI für Anfänger:innen“: Hallo. Hier ist Raja Marika Mandate In dieser Klasse A für Anfänger können Sie die Grundlagen der künstlichen Intelligenz erlernen Ich habe diesen Kurs so konzipiert, dass auch Anfänger A-Konzepte leicht verstehen können. Neben der Erklärung eines Fachjargons und der Auflistung verschiedener A-Tools habe ich mein Bestes getan, um verschiedene A-Konzepte auf interessante Weise zu erklären verschiedene A-Konzepte auf interessante Weise Zum Beispiel die Nutzung der lernbaren Maschinen von Google und der Spielwiese von TensorFlow Sie können lernen, wie Sie Untertiteldateien lokal mit dem Modell Open as Whisper erstellen Untertiteldateien lokal mit dem Modell Open as Whisper Sie werden lernen, ein einfaches Tensorflussmodell mit Google Colab zu trainieren , und Sie können die Grundlagen des Trainings des Modells mithilfe von Psyche Learn erlernen Trainings des Modells Insgesamt habe ich versucht, diesen Kurs informativ und einfach zu halten , damit er auch Anfänger leicht verstehen 2. Einführung in KI: Das Video erklärt die Grundlagen der künstlichen Intelligenz, KI, sodass auch Anfänger sie leicht verstehen können. Zuallererst, was ist KI? KI steht für künstliche Intelligenz. Es ist eine Methode, Computer dazu zu bringen , wie Menschen zu denken und zu handeln. Aber bis jetzt entspricht es nicht dem Niveau von Menschen, aber Wissenschaftler arbeiten auf dieses Ziel hin. Sehen wir uns einige Beispiele für die Verwendung von AA an. Apple Tree, Amazon Alexa und Google Assistant. Diese Art von Assistenten wird von KI unterstützt. Wir können sie bitten, unsere Fragen zu beantworten. Und wenn es mit SmartCom verbunden ist, können wir sie bitten, das Licht zu wechseln , auch solche Aktivitäten Ähnliche Chatbots wie Chart GBT und Google Deutschland helfen uns, Antworten auf unsere Fragen zu geben, und wir können sie bitten, Artikel und Blogbeiträge zu schreiben, sogar wir können sie bitten, elendes Programmieren zu schreiben All diese Dinge werden also von KI angetrieben. Und in ähnlicher Weise selbstfahrende Autos ohne Fahrer. Es wird durch KI ermöglicht. A wird jetzt Teil unseres täglichen Lebens. Wenn wir beispielsweise eine Google-Suche durchführen, erhalten wir Hilfe von KI. A zeigt die besten Ergebnisse. Okay. Und in ähnlicher Weise verwenden Netflix und YouTube , diese Art von Streaming-Plattformen, KI, um Filme und Videos vorzuschlagen , die für VOS relevanter sind. Und Chatbots, wie der Kundensupport, werden auch Chatbots von KI unterstützt Daher verwenden viele Unternehmen , Banken und solche Branchen KI-gestützte Chatbots, um den Kundensupport bestmöglich zu gestalten Und Sie haben vielleicht Google NS verwendet, oder? Mit Hilfe von Google Lens können wir also alle Schilder in unsere gewünschte Sprache übersetzen in unsere gewünschte Sprache und Google Lens zur Erkennung von Objekten verwenden . Nehmen wir an, Sie sehen ein neues Objekt, wenn Sie nichts davon wissen, können Sie einfach ein Foto davon machen und mit Hilfe von Google Lens können Sie einfach Details zu diesem Objekt abrufen, oder? All diese Dinge werden also von KI angetrieben. Fast wir benutzen sie täglich. Lassen Sie uns nun etwas über die Arten von KI erfahren. Eine davon ist Narrow AI. Das ist KI, die eine Aufgabe erledigt. Nun, zum Beispiel Google Translate Self Driving Cast. Das bedeutet, dass die mit Google Translate verwendete KI für Self Driving Cast nicht nützlich sein wird . Jede Anwendung oder Aufgabe wird ihre eigene Art von KI verwenden. Okay? Es ist eine enge KI. Derzeit ist fast die gesamte A-Nutzung nur noch auf EA beschränkt. Und die nächste ist allgemeine KI, bekannt als AGA, richtig? Das bedeutet, dass sie wie Menschen denken wird, aber derzeit ist sie nicht verfügbar Es befindet sich noch in der Entwicklung. Also wenn AJ kommt, kann es sich ähnlich verhalten wie Menschen. Und noch ein Typ ist da, das ist Superintelligenz ASI. Okay. Im Fall von ESI ist es soweit, es ist nur Theorie. Es bedeutet, dass es so sein wird, ich meine, AA wird sich besser benehmen als Menschen, okay? gibt also viele kontroverse Diskussionen darüber, ob es gut für Menschen sein wird oder ob es sehr schlecht sein wird. Ich werde die Menschen auf diese Weise vernichten. Es werden viele Diskussionen geführt. Teer wie nur theoretisch. Äh, derzeit sehen wir in unserem täglichen Leben die enge KI, und Wissenschaftler arbeiten daran, eine allgemeine KI zu entwickeln. Sehen wir uns nun einige grundlegende A-Konzepte mit Beispielen an, okay? Sie haben vielleicht schon oft von dem Wort maschinelles Lernen gehört, oder? Im Fall von maschinellem Lernen lernt A aus Daten. Das ist das Grundprinzip des maschinellen Lernens. Also mussten wir Daten für das Unterrichten der KI bereitstellen, okay? Zum Beispiel ein sehr einfaches Beispiel. Sehen wir uns ein sehr einfaches Beispiel an. Du bekommst E-Mails, oder? Einige E-Mails werden für Sie relevant sein, echte E-Mails. Einige von ihnen sind Spam, okay? also, nachdem Sie den Spam gesehen Wenn Sie also, nachdem Sie den Spam gesehen haben, diese bestimmte E-Mail als Spam markieren, wenn Sie es für ein paar E-Mails tun, okay. Aber danach markiert dieser E-Mail-Client automatisch alle neuen Spam-E-Mails, okay? Das ist also das Verhalten dieser Art von maschinellem Lernen. Also ist es okay, aus deinem Input zu lernen? Also, basierend auf Ihren Eingaben, geht es darum, zu lernen Spam-E-Mails von echten E-Mails zu trennen, okay? Das ist die Grundvoraussetzung des maschinellen Lernens. Als nächstes kommt Deep Learning. Im Fall von Deep Learning verwendet A neuronale Netzwerke. Zum Beispiel Gesichtserkennung. Es ist etwas Ähnliches wie das menschliche Gehirn, dieses Konzept. Das nächste ist die Verarbeitung natürlicher Sprache (NLP). Es ist so, die natürliche Sprache Englisch, Tamil, so zu verstehen , okay Im Zeichen GPT können wir also Fragen in jeder Art von Satz stellen, Es gibt keine Standardbefehle. Dem müssen wir in der Struktur nicht folgen. Wir können ganz natürlich mit unseren Freunden sprechen, oder? So können wir mit Char GPT oder irgendwelchen AA-Tools sprechen, die auf natürlicher Sprachverarbeitung (NLP) basieren , okay Maschinelles Lernen ist also dazu da, aus Daten zu lernen. Deep Learning verwendet neuronale Netze, um die Muster automatisch zu finden. Und die Verarbeitung natürlicher Sprache dient dazu natürliche Sprache wie Englisch zu verstehen. So lustige A-Aktivitäten zum Ausprobieren. Wie ich bereits erklärt habe, können Sie einfach Google Lens ausprobieren, um Objekte zu erkennen , sodass Sie die Leistungsfähigkeit der KI verstehen. Und ähnlich, Char GBT Char GBT oder Gemini oder Deep C. Um Antworten auf Ihre Fragen zu erhalten und damit eine Art Brainstorming durchzuführen, und Sie können es bitten, Bilder auf der Grundlage Ihrer eigenen Empfehlungen zu erstellen Bilder Und du kannst damit Audio- und Voice-Chat machen. Okay? Und du kannst es zum Erstellen von Code verwenden. also diese Dinge tun, diese Dinge erforschen, können Sie die Macht der KI verstehen und verstehen, wie sie verwendet wird. Was sind auch die negativen Aspekte, okay? Weil wir nicht immer die richtige Antwort bekommen werden. Es gibt also einige bestimmte Einschränkungen. Es ist bekannt als Halluzination. A wird nicht immer die richtige Antwort geben. Es halluziniert Es gibt manchmal zufällige Antworten. Vielleicht gibt es sogar bei einfachen Fragen irrelevante Antworten. Wir müssen das Ding verstehen, okay? Wir sollten also nicht blindlings die Ergebnisse der KI nutzen. Okay? Wir müssen es manuell validieren. Okay. Uh, das ist das Wichtigste. Als Anfänger solltest du es wissen, oder? Und benutze generierte Bilder Dali, während der Reise, dass eine Menge Dinge da sind, okay? Bei der Bilderzeugung können Sie also quasi angeben, wie das Bild aussehen soll, oder? Sagen wir zum Beispiel, wenn du ein neues Tier erschaffen willst, kannst du sagen, ich sollte so sein und Beine sollten so und so sein Wenn du die Dinge beschreibst, wird das Bild automatisch generiert, okay? also nicht nur bei Bildern Generative GNA spielt heutzutage also nicht nur bei Bildern eine wichtige Rolle, oder? Für die Textgenerierung alles. Sie können ChargyBT bitten, zu schreiben und neben dem Schreiben von Artikeln können Sie es auch bitten, eine solche Geschichte zu schreiben Okay. Fang einfach damit an, okay? Sie werden verstehen, wie es funktioniert. Und Sie können es für die eigentliche Arbeit verwenden , auch zum Schreiben von Programmierungen und zum Schreiben von Marketinginhalten. Okay. Sogar Sie können PowerPoint-Präsentationen erstellen. Eigentlich habe ich diese PPT mit Hilfe von HarGPT erstellt. Ich habe Char GPT gerade gebeten, eine PPT-Präsentation zu erstellen, um die A-Grundlagen zu erläutern Dann habe ich dieses PPT bekommen. Okay. Also das sind alles fortgeschrittene Dinge. Ich liste hier nur auf, um zu erfahren , ob diese Dinge da sind, okay? Aber für Anfänger ist es vielleicht nicht relevanter , okay? Äh, es gibt verschiedene Arten von maschinellem Lernen wie überwachtes und überwachtes Lernen und verstärkendes Lernen, okay? Tiefes Lernen. Okay. Im Fall von überwachtem maschinellem Lernen ist das die Weiterleitung von Spam-E-Mails weil wir sie kennzeichnen, oder? Es ist Spam, es ist kein Spam wie dieser, wir kennzeichnen es. Auf der Grundlage dieses beaufsichtigten Trainings wird es sich also benehmen, okay Ähnliches gilt für Betrugsbekämpfung, Immobilienpreisprognosen und solche Sachen In diesem Fall beaufsichtigt, wird es ohne unsere ausdrückliche Kennzeichnung handeln, okay? Und noch etwas in der Klammer, Sie können sehen, dass die Entscheidungsbäume für die logistische Regression, lineare Regression, Random Forest und SV für uns als Clustering-Asilon dazugekommen sind, SV für uns als Clustering-Asilon dazugekommen Das sind alles Algorithmen. Dies sind alles einige fortgeschrittene Themen. Okay, für den Anfang versuche ich nur, einen Überblick zu geben AA ist also so, als müssten wir die KI trainieren, okay? Das ist eine Sache. Dafür benötigen wir Trainingsdaten. Okay. Und wir sollten einen Algorithmus haben. Es gibt viele Algorithmen. Du musst einen geeigneten Algorithmus wählen, okay? Das versuche ich hier also zu sagen. Sie werden also überall von diesen beiden Begriffen maschinelles Lernen und tiefes Lernen hören . Wie ich bereits erklärt habe, dient maschinelles Lernen also dazu, AA mit Daten zu trainieren. Okay. Im Fall von maschinellem Lernen funktioniert es mit strukturierten Datentabellen und kleinen Datensätzen Okay. Aber im Fall von Deep Learning ist es leistungsstark für unstrukturierte Daten, Bilder, Text und Sprache wie diese Äh, es ist besser, wenn du es dir so ansehen kannst. Em ist quasi das Lernen mit einem Lehrer, okay? Der Lehrer muss den Schülern sagen, das sind die Merkmale dieser Art, okay? Um ein paar Konzepte zu erklären, okay? Aber im Fall von Deep Learning ist es wie ein selbstlernender Student , der die Muster automatisch herausfindet. Hauptsächlich allein aufgrund des tiefen Lernens sehen wir bei A ein starkes Wachstum. Andernfalls müssen wir viele menschliche Anstrengungen unternehmen, um die Daten zu trainieren, oder? Mit der Entwicklung von Deep Learning. Also wird alles automatisch erledigt. Deep Learning wird das Muster finden und sie werden dazu in der Lage sein. A-Modelle werden in der Lage sein , diese Muster zu verwenden, trainiert zu werden, oder? Auf diese Weise wird es eine Menge Zeit sparen, oder? So werden wir in der Lage sein die Modelle mit vielen Daten zu trainieren. Aufgrund der vielen Daten bedeuten viele Daten also eine bessere Leistung. Auf diese Weise sehen wir im Fall von KI ein schnelles Wachstum. Okay? Die Zukunft von EAI spielt also fast schon eine wichtige Rolle in der Medizin Es begann wie auf einer sehr forschungsorientierten Basis. Aber in den kommenden Tagen wird es im Mainstream stattfinden, okay? Wie im Fall von Medikamenten kann man Krankheiten finden, indem man einfach, äh, die Scans sieht, oder? Ähm, bis jetzt sagen viele Forschungsarbeiten, dass es sich besser benimmt als Radiologen, wenn es darum geht , die Krankheit zu finden Und eine weitere Sache ist, dass es Lage sein wird, die Krankheit zu finden, ähm, in einem sehr frühen Stadium Obwohl es viele Vorteile gibt, gibt es auch einige ethische Bedenken. Das Wichtigste ist, dass A Arbeitsplätze ersetzt. Die Leute haben Angst, dass A ihnen ihre Jobs wegnimmt, okay? Das ist eine Sache und tiefe Fälschungen. Eine Menge Betrugsbilder, gefälschte Bilder sind nicht nur Bilder, Videos werden erstellt, um jemanden per EFM zu informieren, oder? Ich kann also sagen, dass es mächtig ist, aber es entwickelt sich immer noch, okay? Es ist also besser, das zu verstehen , damit wir uns das Leben leichter machen können. Und es ist auch so, als würde es für unsere Karriere zur Pflicht werden , okay? 3. Berühmte und nützliche KI-Tools: Das Video gibt einen Überblick über einige berühmte A-Tools. Ich werde die Tools auflisten , die etwas mit AA zu tun haben, und nicht unter einer bestimmten Kategorie. Okay. Erster, Open AA ist GPT vier Es handelt sich um ein Modell mit mehreren Modellen. Eigentlich verwendet Charge GPT dieses Modell, okay? Wann immer Sie also Fragen zu HarGPT stellen, kann Charge GBT Ihre Frage mit diesem Modell beantworten Okay? Ähnlich wie bei HarGPT, wenn Sie Ihre eigene Anwendung entwickeln möchten, können Sie dieses Modell über Open as APA verwenden Sie müssen also einen APA-Zugang kaufen. Also jede Anfrage und Antwort, die auf der Grundlage der Tokens berechnet wird. Token in dem Sinne, es ist die Anzahl der Zeichen, okay? Sie können also ganz einfach mit der Erstellung einer Anwendung beginnen, etwas Ähnliches wie das Aufladen von GPT mit diesem Modell, okay? Es dient der Sprachgenerierung, Sat-Bots, der Erstellung von Inhalten und der Textanalyse Es ist also derzeit ein sehr berühmtes Programm, fast die meisten Leute versuchen, Anwendungen mit VT Four zu erstellen, okay? TensorFlow ist ein Framework für maschinelles Lernen. Es wird von Google bereitgestellt, okay? Es wird nützlich sein, um Modelle für maschinelles Lernen für alle Arten von A-Anwendungen zu erstellen, zu trainieren und bereitzustellen . Sie haben vielleicht von KRAS APA gehört, oder? Mit KRAS APA können Sie also einfach von vielen Sprachen aus auf diese Dinge zugreifen , einschließlich Python, okay? Und eine weitere wichtige Sache Tensor Flow ist vor allem, dass die Tensorflow-Beispielcodierung in Notizbüchern geschrieben ist Sie können diese Notizbücher also einfach auf Google Colab ausführen. also ohne jegliche Einrichtung sofort damit beginnen, Sie können also ohne jegliche Einrichtung sofort damit beginnen, diese Tensorflow-Codierung in einem Browser selbst oder im Webbrowser selbst zu verwenden diese Tensorflow-Codierung in einem Browser selbst oder im Webbrowser selbst Es ist also eine sehr einfache Art maschinelles Lernen zu lernen Als Anfänger können Sie anfangen, TensorFlow zu verwenden, okay? Und ähnlich wie Tensor Flow ist Pitu auch ein Framework, ein Framework, es ist ein Deep-Learning-Framework Okay? Es wird von Meta bereitgestellt, okay? Es wird in der AA-Forschung, Computer Vision, NLP und Reinforcement-Learning Wir können es lokal installieren, oder Sie können es auch auf einer Cloud-Plattform verwenden, okay? Und in der Umarmungsphase ist es eine NLP-Bibliothek mit NLP steht für Natural Language Processing. Also hauptsächlich NLP-bezogene Anwendungen, es wird nützlicher sein. Und Sie können viele Arten von Modellen auf ihrer Website finden , okay? Nur wenn Sie eine Anwendung mit NLB-Anforderungen entwickeln möchten eine Anwendung mit NLB-Anforderungen Du kannst das Modell einfach von dort holen und du kannst es benutzen, okay? Es bietet vortrainierte Modelle für Textgenerierung, Stimmungsanalyse und Arbeit, okay? Stimmungsanalyse, gewissermaßen, wenn Sie die Twitter-Inhalte zum Beispiel in dieses Modell einfließen lassen, wird es sagen, ob es positiv oder negativ ist, solche Dinge , vielleicht Kundenrezensionen Das wird also in vielen Anwendungen, einschließlich E-Commerce, sehr nützlich sein, okay? Und der nächste ist Google Cloud A. Es ist ein Cloud-basierter A-Dienstleister, okay? Es wird für die Bildanalyse, Textanalyse, Übersetzung und mehr nützlich sein . Okay? Ähnlich wie Google, äh, bietet Amazon auch eine Cloud-basierte Plattform für maschinelles Lernen an. Es heißt AWS Sig Maker, okay? Es ist ein vollständig verwalteter Service zum Erstellen, Trainieren und Bereitstellen von Modellen für maschinelles Lernen, okay? Und in ähnlicher Weise, äh, bietet Microsoft auch ein auf einer Handlung basierendes A-Framework an, okay? Ähm, es heißt Azure AA. Es bietet Tools für Computer, NLP, Spracherkennung und A-Integration Es ist nützlicher, falls Sie bereits das Microsoft-Ökosystem verwenden, z. B. Office 365. Okay? Und Di ist auch von Open AI. Aber es ist speziell für die Bildgenerierung aus Textproms gedacht Okay? Sie können einzigartige Bilder auf der Grundlage von Textbeschreibungen erstellen. Viele Websites verwenden diesen Dali. Fast alle von ihnen sind sehr inspirierend, okay? Ebenso können Sie bildbasierte Anwendungen entwickeln, wenn Sie jegliche Art von kreativen Anwendungen entwickeln möchten. Du kannst Dali benutzen, okay? IBM Watson Es ist für Geschäftslösungen, KI Power-Geschäftslösungen, okay. Es bietet AA-Tools für Datenanalyse, Kundeneinblicke und NLP Fast alle Unternehmen bieten, äh, diese Art von KI-Diensten an, oder? Wie Amazon, Google, okay? In ähnlicher Weise hat IBM auch Folgendes bereitgestellt. Microsoft stellt EA auch zur Verfügung, oder? Runway, es ist, als ob es kreative A-Tools für die Video- und Bildbearbeitung bietet , okay Designer, diese Art von Medienschaffenden können das also nutzen. Okay? Es ist nützlich für die Übertragung von Videobearbeitungsstilen und kreatives Design, okay? Chroma DB, es ist Vektor-DatabSF, das Einbettungen speichert und erforscht Äh, Vektordatenbank in dem Sinne, dass sie den Inhalt im Einbettungsformat speichert dass sie den Inhalt im Einbettungsformat speichert. Es ist mathematisch Es ist eine Art Matrix-Inhalt, okay? Mehrdimensionale Zahlen. Okay. Es wird also sehr nützlich bei erweiterten Generierung von Ag wie Retrieval Für diese Art von A-Anwendungen müssen wir also eine Art Vektordatenbank verwenden ChromoTV wird also sehr nützlich sein , weil es ein sehr einfaches Open-Source-Programm Wir können es in unserem Lokal verwenden, also Chromodov ist es aus dieser Perspektive wichtig Perspektive eines Stoffes. Und die Lang Chain ist ein Framework für die Entwicklung von Anwendungen mit LLMs, wie LLM sieht, wie GPT 4, dass solche Dinge als große Sprachmodelle bekannt sind als große Sprachmodelle bekannt Es ist also, wie ich bereits sagte, Chroma DV ähnlich Dieses Framework ist auch nützlich für die RA-Implementierung von Rag, okay? Also nicht nur für Rag, für jede Art von ALM oder ich kann sagen, dass generative GA-Anwendungen, ein Lang-Chin-Framework sehr einfach sein wird. Es ist so, als würde es Ihnen Arbeit erleichtern, indem es viele Funktionen bereitstellt , wie zum Beispiel, dass Ihr Code sehr minimal sein wird , falls Sie diesen Link im Framework verwenden. Okay? Zum Beispiel habe ich zuvor über die Chroma-DB-Vektordatenbank gesprochen, oder? Wenn Sie also ein auf Chromo DB basierendes Rag-System erstellt haben, Fall, dass Ihre Chroma-DB nicht in der Lage ist, all Ihre Daten zu verarbeiten, und wenn Sie eine andere Vektordatenbank verwenden möchten, große Vektordatenbank. In diesem Fall müssen Sie den Code komplett neu schreiben, wenn Sie den Code manuell erstellt haben Anstatt Chroma DV zu verwenden, mussten Sie, ähm, den Code für eine andere Datenbank, Vektordatenbank, erstellen , okay? Das wird viel Zeit und Mühe kosten, oder? Bei Frameworks wie Lang Chin ist das sehr einfach. Abgesehen von Lang Chin gibt es auch noch andere Frameworks , einen Index wie diesen, okay? Es ist also ein Framework für die Erstellung von Lam-Anwendungen, okay? Und Tannenzapfen. Ähnlich wie Chroma TV ist Pinecone auch ein Vektor-Bauchmuskel, aber es ist ein von Davis gehostetes Ding, okay? Es ist also leistungsfähiger als Chroma TV, aber wie Sie sehen, müssen wir dafür bezahlen Angenommen, unsere Nutzung überschreitet bestimmte Beschränkungen. Dann müssen wir es bezahlen, weil es Cloud-basiert ist, oder? Aber im Fall von ChromaTV ist es eine Open-Source-Sache. Also können wir es auch einfach auf unseren eigenen Computer herunterladen , okay? Es ist also auch nützlich für die Implementierung von AG-Anwendungen. Rag, in dem Sinne, es beinhaltet semantische Suche, Ähnlichkeitssuche, okay? Also T mit A-Integration. Es gibt also viele Daten und Tools, oder? Also kein solches Tool gibt es, es ist mit A-Fähigkeiten ausgestattet, okay? Es integriert A für prädiktive Analysen und Dateneinblicke AutoML von Google Cloud. Für Benutzer mit minimalen ML-Kenntnissen ist es sehr nützlich, benutzerdefinierte Modelle zu trainieren Okay? Es wird die Arbeit durch automatische Modellentwicklung für maschinelles Lernen erleichtern , okay? 4. Eingabeaufforderung: In diesem Video werde ich etwas über Prompt Engineering erklären. Zuallererst, was ist Prompt Engineering? Warum müssen wir etwas über Prompt Engineering lernen? Wir können sagen, dass Prompt Engineering die Methode ist , die Prompts, also Eingaben für LLMs, große Sprachmodelle wie Char GPT und Deutschland, effektiv zu gestalten, sodass wir den gewünschten Output-Datensatz ausgeben können Mit anderen Worten, wir können sagen, es ist die Fähigkeit, die LLMs effektiv zu nutzen Ich kann Prompt Engineering sowohl als Kunst als auch als Wissenschaft betrachten , weil wir bestimmte Strategien, Taktiken und Tipps befolgen müssen, um es effektiv zu nutzen Und gleichzeitig müssen wir viel Erfahrung sammeln. Wir müssen viel Erfahrung sammeln, indem verschiedene Eingabeaufforderungen untersuchen, um unsere Aufforderungsfähigkeiten zu verbessern Heutzutage wird es immer wichtiger, über gute Sprachaufforderungsfähigkeiten zu verfügen . Dafür gibt es zwei Gründe Einer ist SAGBTLDGGermany. Sie spielen eine Schlüsselrolle in unserem Leben. Jeder verwendet es täglich zum Erstellen von Artikeln, zum Erstellen von Bildern und sogar zum Schreiben von Code. Daher ist es wichtig, mit Prompt Engineering vertraut zu sein. Ein weiterer Grund ist , dass die A-Entwickler für die Entwicklung von AA-Tools mit Prompt-Engineering vertraut sein müssen, mit Prompt-Engineering vertraut sein müssen damit sie die LLMs effektiv nutzen können, indem sie die Eingabeaufforderungen auf der Grundlage ihrer Anwendungsanforderungen vorbereiten auf der Grundlage ihrer Anwendungsanforderungen da die LLMs im Vergleich zu unseren individuellen Modellen leistungsfähiger sind im Vergleich zu unseren individuellen Modellen leistungsfähiger werden mit einer Vielzahl von Daten trainiert und verfügen über eine enorme Rechenleistung Daher ist es besser, über die API auf sie zuzugreifen , um unsere eigenen A-Anwendungen zu erstellen. In diesem Fall müssen wir uns meistens mit vielen Eingabeaufforderungen auseinandersetzen Okay, wenn dir immer noch nicht klar ist, was Prompt bedeutet, erkläre ich das besser auf einfache Weise, okay? Das ist Chat-GPT. Dieses AD-Tool verwendet intern das Y LAM GPT Four, okay? wir hier also Fragen stellen, wenn Sie hier etwas eingeben, wird es an das LLM GPT Four weitergeleitet oder Sie erhalten Also im Grunde genommen wird das als schnell angesehen, oder? Was ergibt eins plus zwei? Das, was eins plus zwei ist, wird als Eingabeaufforderung bezeichnet. Wir können dieselbe Frage auch auf andere Weise stellen, oder? Addieren Sie eins und zwei, richtig? Oder du kannst einfach eins plus zwei sagen. In allen drei Fällen haben wir das gleiche Ergebnis erzielt. Aber Prompt ist anders, oder? Hier ist die Aufforderung, was eins plus hier die Aufforderung eins und zwei hinzuzufügen, hier die Eingabeaufforderungen eins plus zwei, Diese Art von Aufforderung zu formulieren wird als Prompt-Engineering betrachtet Sagen wir zum Beispiel, ich sage das nur als einfaches Beispiel. Anstatt Zeit damit zu verbringen, auf diese Weise zu schreiben , wird es viel Zeit sparen, wenn Sie in der Lage sind , auf diese Weise zu schreiben. Okay? Also jetzt ist es klar, oder? Es ist schnell. Was ist eins plus zwei, addiere eins und zwei, eins plus zwei oder Eingabeaufforderungen Die Art und Weise, wie diese Fähigkeit oder dieses Wissen vorbereitet wird, die Fähigkeit, auf diese Weise etwas zu erstellen wird als Prompt bezeichnet. Im Grunde ist das schnelle Engineering nützlich, um Qualität, Relevanz und Genauigkeit zu verbessern Es ist nützlich bei der Codierung von Chatbd-Inhalten Wie ich erklärt habe, steuert es das Verhalten und die Ausgabequalität von AA also qualitativ hochwertige Ergebnisse zu erzielen, Um also qualitativ hochwertige Ergebnisse zu erzielen, müssen wir unsere Fähigkeiten bei der Eingabe von Eingabeaufforderungen verbessern Das reduziert Unklarheiten und verbessert die Klarheit. Wenn also unsere Pumpen sauber sind, dann sind auch die Ausgangswerte klar dann sind auch die Ausgangswerte Es hilft, TuneA für bestimmte Anwendungsfälle zu finden, was für Automatisierung und Effizienz unerlässlich Lass mich sie anhand der Beispiele erklären, okay? Bestandteile einer guten Aufforderung. Okay? Jetzt ist es klar, richtige Eingabeaufforderungen bedeuten, dass wir den Eingabetext an die LLMs senden Das kann aus Benutzersicht geschehen, es kann eine einfache Frage sein, die auf kostenpflichtiger GPT eingegeben wurde , oder aus Sicht des Anwendungsentwicklers, es ist die Aufforderung, die wir in unserer Codierung für den Versand an die LLMs über APA vorbereiten Versand an die LLMs über Zunächst geht es also um Klarheit. Klarheit, das ist eine sehr offensichtliche Sache. Wann immer wir also nach einem Zaubertrank fragen, sollte er sehr spezifisch und präzise Beides müssen wir beachten. Es sollte sehr spezifisch sein. Es sollte keine zufällige Sache wie ähm sein, es sollte eine sehr allgemeine Sache sein, okay? Wir müssen spezifische Fragen stellen, okay? Lassen Sie mich viele Beispiele zeigen. Selbst im offenen A bieten sie eine Menge Beispiele. Aber es ist sehr offensichtlich, oder? Es sollte sehr spezifisch sein. Anstatt zu fragen , schreib ein Gedicht. Du kannst fragen, wie ein Gedicht über den Mond, oder? Oder du kannst ein Gedicht fragen, ein Gedicht schreiben, in dem Glück auf diese Weise hervorgehoben wird. Und Kontext. Und Sie müssen auch die Hintergrundinformationen bereitstellen. Das Gleiche. Ich schreibe ein Gedicht auf dem Mond. Sie können den Grund angeben, warum Sie sich dieses Gedicht ausgedacht haben. Ich habe vor, dieses Gedicht in meinem Blogbeitrag oder so für was auch immer zu verwenden . Wenn Sie also einen Kontext angeben, der auf diesem Kontext basiert, können Sie die Ausgabe fein abstimmen, okay? Oder du kannst sagen, dass es für einen Wettbewerb wie diesen ist , okay? Und der dritte ist konstant. Wir müssen die Grenzen definieren. In den Eingabeaufforderungen müssen wir die Grenzwerte definieren, wie z. B. die Anzahl der schlechten Kots und das Tonformat Wenn Sie beispielsweise Artikel schreiben, können Sie sagen, dass Sie einen Artikel über allgemeine Grundeinkommen in 20 Zeilen oder in 200 Wörtern wie diesem Und was den Ton angeht, kannst du sagen, dass du ihn in einem formellen Ton oder auf persönliche Art oder auf eine lustige Art und Weise schreibst , oder? Und das Format, egal ob du es im Excel-Format oder im CSE-Format oder in einer Tabelle haben willst, okay? Wenn Sie zum Beispiel den Unterschied zwischen maschinellem Lernen und Deplanung unterscheiden möchten den Unterschied zwischen maschinellem Lernen und Deplanung unterscheiden , können Sie sich davon überzeugen, ob Sie die Ergebnisse in einer Vergleichstabelle wie dieser benötigen , okay? Und Beispiele, das ist eine sehr wichtige Sache, okay? Wir müssen Beispielergebnisse als Orientierungshilfe bereitstellen. Nur dann wird es wirksam sein. Es heißt bei Start Learning und du fängst an zu lernen, wähle das aus. Okay? Vielleicht kann ich es später im Detail erklären. Rollenzuweisung. Wir können das YlM bitten, Ihre besondere Rolle zu übernehmen. Wenn du dir zum Beispiel Gedichte besorgen willst, kannst du zuerst sagen, dass du ein großartiger Dichter Vielleicht kannst du einige Leute so empfehlen, du kannst den Har GBT oder irgendeine Art von LLM bitten , als eine bestimmte Person, in einem bestimmten Raum aufzutreten, Wenn du sagen kannst, dass du als Lehrer auftrittst und diese Anleitungen für solche Schüler vorbereitest, okay? Arten von Eingabeaufforderungen. Offene Proms, befehlsbasierte Proms, rollenbasierte Proms, vergleichende Proms, statistische Proms Offene Prompts sind wie offene Fragen. Diskutieren Sie so über den Klimawandel. Es kann alles schreiben. Und lass dir irgendeinen Inhalt einfallen. Bei anweisungsbasierten Eingabeaufforderungen können Sie spezifische Details angeben, z. B. müssen Sie diesen Artikel auf diese spezielle Weise mit diesem TC schreiben , oder? Bei dieser Art von anweisungsbasierten Eingabeaufforderungen können wir, wie ich bereits erklärt habe, wie ich bereits erklärt habe, Char GPT oder LLM bitten, eine bestimmte Rolle zu übernehmen. Und dann können wir auf ähnliche Weise Schritt für Schritt Fragen stellen ähnliche Weise Schritt für Schritt Man nennt es auch eine Gedankenkette. Es ist eine sehr wichtige Sache. Wir müssen Har GPT oder einen anderen LLM bitten , die Antwort Schritt für Schritt vorzubereiten Es ist vielleicht in jeder Art von Sache so, wenn Sie eine Antwort auf eine Frage haben wollen, stellen Sie einfach eine Frage und fügen Sie sie dann hinzu, tun Sie es Schritt für einfach eine Frage und fügen Sie sie dann hinzu, Schritt, als ob es eine sehr wichtige Sache ist Andernfalls wird meistens das Halisnal-Problem auftreten. Selbst bei einfachen Fragen erhalten wir möglicherweise falsche Wenn wir jedoch ausdrücklich darum bitten , die Verarbeitung Schritt für Schritt durchzuführen, können wir ein solides, korrektes Ergebnis erzielen. Das ist sehr wichtig. Es wird Chain-Up-Thoughts genannt. Sie haben das vielleicht gehört. Bevor wir Proms und Prompt Engineering verstehen, müssen wir die inhärenten Probleme mit LLM verstehen Diese Halluzination ist sehr, sehr wichtig. Vor allem, um damit fertig zu werden, wird es nützlich sein, Schritt für Schritt Proms Okay. Obwohl die LLMs sehr mächtig sind und in der Lage sind, Antworten auf sehr effektive Weise zu geben, sind diese Antworten nicht korrekt Sie sind nicht zuverlässig. Sie haben immer ein paar falsche Antworten gegeben, okay? Wenn du nach Referenzen fragst, gibt es zufällige Links oder so, okay? Wir müssen also bei der Analyse der Ergebnisse sehr vorsichtig sein. Gleichzeitig müssen wir die Strategien verfolgen , um etwas bessere Ergebnisse zu erzielen. Eine wichtige Strategie ist , Schritt für Schritt vorzugehen. Melde das an, okay? Und wir geben Beispiele und geben Referenzmaterial. Okay. All diese Dinge werden die LLMs dazu bringen, richtig zu handeln Wenn wir nicht anleiten, wenn Sie einfach die Frage stellen und eine Antwort erwarten, wird es keine richtige Antwort geben Okay? Also müssen wir es richtig lenken. Beispiel-Eingabeaufforderungen. Schwache Eingabeaufforderung ist, über EA zu schreiben. Es ist sehr generisch. Wir müssen spezifisch sein. Schreiben Sie also einen Artikel mit 200 Wörtern, 0N EA im Gesundheitswesen. Sie sorgten für die Einschränkungen, okay, die Konstante, und ähm, sie sorgten für die erste Schwäche, die Gesundheitsversorgung Okay? Also hier ist es am besten, als medizinischer Forscher Wirkung auf das Gesundheitswesen in 200 Worten zu erklären. Hier, das auf Regeln basiert, bitten wir es, als medizinisches Forscherteam zu agieren, oder? Dieser Teil ist da, und wir stellen ersten Woche Fragen wie Auswirkungen auf Gesundheitswesen in 200 Wörtern. Diese Einschränkung ist da. Es ist also die beste Aufforderung, okay? Also nur um die grundlegenden Dinge über Prompt Engineering zu lernen und dann zu versuchen, Prompts in Ihrem täglichen Leben zu implementieren, okay? Anstatt über KI zu schreiben, sind wir zwei Autoren, als medizinische Forscher erklären: Als Auswirkung auf das Gesundheitswesen und zwei Unrevers. Es ist nur ein Beispiel Angenommen, Sie planen, einen Blogbeitrag aus technischer Sicht zu schreiben, vielleicht können Sie das als guter Blogautor sagen. Erläutern Sie die Auswirkungen auf Gesundheitswesen in 200 Worten. So kannst du fragen. Es basiert also auf unseren Empfehlungen. Das ist es, was ich meine. Basierend auf unseren Empfehlungen können wir, wenn wir in der Lage sind, das LLM richtig einzusetzen , diese Fähigkeit als technische Fähigkeit betrachten . Das ultimative Ziel ist es , das LLM effektiv zu nutzen, um das gewünschte Ergebnis zu erzielen Es gibt viele schnelle technische Techniken. Eins ist Null kurze Aufforderungen, wenige kurze Aufforderungen, Verkettung der Eingabeaufforderungen, mehrere zehn Eingabeaufforderungen, mehrere zehn Eingabeaufforderungen Zero SAT bedeutet, sofort eine Frage zu stellen und eine Antwort zu erhalten, ohne Wenige Eingabeaufforderungen so, als müssten wir einige Beispiele angeben Angenommen, Sie planen, die Ausgabe in einem bestimmten Format zu formatieren, können Sie die wenigen Beispielausgaben bereitstellen In diesem Fall spricht man von Few Shot Prompting. Okay. Dann verkette die Aufforderung. Wie gesagt, wir müssen den LLM bitten , die Berechnungen Schritt für Schritt durchzuführen Und mehrere Eingabeaufforderungen. Also mehrere Tonnen von Eingabeaufforderungen, es ist nichts anderes, als interaktiv mit dem LLM zu interagieren Wir müssen ständig damit sprechen, anstatt eine Frage zu stellen und dann eine Antwort zu bekommen Stattdessen können wir uns kontinuierlich mit etwas Aufzeichnendem, gemeinsamen Herausforderungen und Lösungen, zweideutigen Ergebnissen auseinandersetzen gemeinsamen Herausforderungen und Lösungen, zweideutigen Ergebnissen In diesem Fall müssen wir natürlich die Aufforderungen verhindern Wir mussten die Eingabeaufforderungen dort verbessern. Irrelevante Antworten. In diesem Fall mussten wir, wie gesagt, die wenigen kurzen Lernschritte nutzen, diese Art von Aufforderung, okay? Wir müssen Beispiele angeben, damit es für die Ausrichtung der L-Lampen nützlich Halluzination wird benutzt. Okay. In diesem Fall müssen wir also die Ausgabe mit anderen Quellen überprüfen. Vertraue dem A-Ausgang also immer nicht. Wir müssen auch die anderen Quellen manuell überprüfen. Für den Fall, dass es sich um lange oder kurze Antworten handelt, müssen wir natürlich die spezifische Wortbegrenzung angeben In diesem Fall folgen Sie dem. Es gibt also viele Anwendungen für die Erstellung von Inhalten, Programmierassistenten und die Schulung des Kundensupports. Also fast in jedem Bereich schnelle technische Fähigkeiten wirklich wichtig. Wir können das mit dem Diagramm GPT üben, oder Sie können OpenAS APA verwenden , um dieses GPT für LLM zu verwenden Aber im Fall von APA werden Sie zusätzliche Optionen haben Normalerweise haben wir in der GPT-Grafik also zwei Dinge, oder? Das eine ist das GPT-Diagramm, das eine Antwort gibt Ein anderes Beispiel ist, dass wir als Benutzer, ähm, eine Frage stellen Es gibt zwei Regelassistenten, die den GBT-Assistenten und dann den Benutzer, uns selbst als Benutzer und Assistent berechnen GBT-Assistenten und dann den Benutzer, uns selbst als Benutzer und Aber im Falle eines APA-Zugriffs haben wir drei Optionen, drei Regeln: System, Benutzer und Assistent, okay? In diesem Fall werden wir also mehr Flexibilität haben , was in der Regel gilt, andere Dinge können wir dem System selbst widmen. Vielleicht erkläre ich die Einzelheiten anhand eines Beispiels. Offensichtlich, Deutschland, Deutschland, das Ultimative ist , dass wir uns umgehend schriftlich sehr klar ausdrücken müssen. Es ist spezifisch. Wir müssen mit verschiedenen Stilen experimentieren , weil sie sich dynamisch ändern. Was auch immer Sie sich in diesem Monat als Sprachaufforderung aneignen, sie werden in den zwei, drei Minuten später zu diesem Zeitpunkt nicht mehr anwendbar sein den zwei, drei Minuten später zu diesem Zeitpunkt Okay, ich erzähle dir nur subtile Dinge, aber die wichtigsten Dinge sind immer so, wenn du die Website von Open A durchgehst, sie listeten sechs Strategien Diese sechs Strategien, sogar im letzten Jahr, boten sie dasselbe. Die Kernkonzepte werden also größtenteils dieselben bleiben, aber die subtilen Dinge werden sich ändern. Das müssen wir lernen. Das ist es, was alle sagen, dass schnelles Ingenieurwesen sowohl Kunst als auch Wissenschaft ist. Wir müssen die grundlegenden Regeln und Strategien verstehen. Dann müssen wir unsere Fähigkeiten verbessern, weil sie sich persönlich von Person zu Person verändern. Wir müssen also über die Fortschritte bei A auf dem Laufenden bleiben. Okay. Lassen Sie mich ein Beispiel zeigen. Im Fall der Generierung von Daumenbildern kann ich zum Beispiel nach einem Kurs fragen, den ich auf Video auf YouTube erstellt habe Okay. Dann kann ich in diesem Fall sagen, dass ein Vorschaubild erstellt Okay. Ein Eqs Es ist nicht sehr spezifisch, oder? Es kann also das Bild auf jede Art und Weise erstellen. Okay? Aber mein Ziel ist, dass ich das Vorschaubild für mein UT-Video erstellen muss das Vorschaubild für mein UT-Video erstellen Hier stimmt das Seitenverhältnis. Aber im Fall von UT-Video sollte das Seitenverhältnis 16 mal neun sein, oder? In diesem Fall ist es besser, die Aspekte zu spezifizieren. Oder zumindest müssen wir den Kontext für unser Video bereitstellen , ein YouTube-Video wie dieses. Aber aufgrund meiner persönlichen Erfahrung sage ich, dass es immer die Regeln gibt, es gibt keine festen Regeln, okay? Als beste Strategie können wir den Kontext absichern Aber in manchen Fällen ist das nicht nötig. Meiner persönlichen Erfahrung nach wird meistens nicht berücksichtigt, dass, obwohl ich ausdrücklich sage , dass es für mein YouTube-Video ist, es immer noch nur das quadratische Bild generiert hat. Also habe ich das Seitenverhältnis mit dem Seitenverhältnis angegeben . Jetzt wurde es mit einem Seitenverhältnis von 16 mal neun erstellt, sodass ich es für mein YouTube-Video verwenden kann Okay. Abgesehen davon können wir Ihnen weitere Informationen geben, welche Farbe Sie haben sollten. Sie befolgen die Anweisungen jedoch nicht immer richtig. Wir müssen also viele Versuche und Irrtümer durchführen. Okay. Falls Sie nur wenig lernen müssen, können Sie vielleicht ein paar Beispielbilder zur Verfügung stellen und dann D GBT bitten, ein ähnliches Bild wie dieses zu erstellen, okay? Oder im Falle einer Formatierung können wir es bitten, eine bestimmte Sache zu formatieren , z. B. über maschinelles Lernen im Vergleich zu Deep Learning zu schreiben Wir können sagen, das formatiere es in einer Tabelle. Also hier werden die Unterschiede in einem Tabellenformat geschrieben , okay? Andernfalls, wenn du es in der Art eines Blogposts haben willst , kannst du es bitten, es als Artikel in etwa 500 Wörtern zu schreiben , was auch immer. Und wie gesagt, wir können auch spezielle Muster zur Verfügung stellen. Wenn Sie zum Beispiel annehmen möchten, ob Sie nach einem Laptop oder Computer zum Kauf suchen, können Sie ihn bitten, mir drei Laptops für meine Videoerstellung zu empfehlen . Und Sie können ihn bitten, das Format anzugeben. Neben der Angabe von Einzelheiten können wir auch einige Beispiele nennen. Zum einen können Sie dem Laptop einfach so einen Namen geben, Sie können die Bezeichnung RAM Hard Disk Display DPU so geben, Sie können fragen, okay? Es ist Format. Falls Sie nur wenig lernen möchten, können wir Ihnen einige Beispiele zur Verfügung stellen. Es gibt die Details, oder? RAM-Speicherdisplay, CPU wie diese, richtig? Ansonsten können wir, wie gesagt, die Proben geben. Und Sie können Trennzeichen verwenden. Dass wir zwischen der eigentlichen Aufforderung und einer solchen Stichprobe unterscheiden können der eigentlichen Aufforderung und einer solchen Stichprobe Wir können irgendein Markup oder so einen Stern verwenden, oder? So können wir Formate wie Markenname, RAM, Preis angeben. Okay. Ich empfehle ein bestimmtes Format, okay? Aber ich habe das Display nicht spezifiziert. Es enthielt auch ein Display, aufgrund meiner vorherigen Version wird dieser Effekt da sein. Dass ich darüber sprechen werde, okay? Das ist Kontextgeschichte, okay? Es bleibt die Geschichte des Wettbewerbs. Angenommen, Sie möchten den Kontext-Verlauf löschen, indem Sie ein neues Diagramm erstellen. Ich nehme an, Ihre Frage ist völlig unabhängig von Ihrer vorherigen Frage. Um ein neues Diagramm zu starten. Und noch etwas gibt es, das ist Erinnerung. Also unter all Ihren Chats in Staaten, sagen wir , eine Woche zuvor, haben Sie vielleicht ein paar Fragen gestellt, okay? Aber trotzdem wird es sich an diese Details erinnern, okay? Selbst wenn Sie das neue Diagramm starten, wenn es im Speicher gespeichert ist, speichert es nicht alles, sondern nur wenige Dinge, okay? Aber die Geschichte des Kontextes ist anders. Wenn es sich im selben Diagrammfenster befindet, erinnert es sich an die alten Fragen. Es wird sich voll und ganz erinnern. Okay, das ist Kontextgeschichte. Aber im Fall dieses Speichers wird das selektiv wichtige wichtige Details im Speicher speichern, okay? Also, wenn du diese Option haben willst, kannst du sie hier behalten, Einstellungen, okay? Wenn Sie es also aktivieren, merkt es sich Ihre wichtigsten Daten. Okay? Sie können auf Erinnerungen verwalten klicken, und wenn Sie dann einige Details selektiv entfernen möchten , können Sie sie entfernen, okay? Diese Speicherdetails werden bei verschiedenen Kartenanbietern verfügbar sein verschiedenen Kartenanbietern verfügbar Okay. Und abgesehen davon können Sie das Diagramm GBT anpassen Ich spreche nur von Chart GBT. Das schnelle Engineering ist für jede Art von LLM üblich. Uh, sogar für diese Gebühr GBT, mit GPT vier Also, wenn Sie es von der Anwendung über die API verwenden, ist das ein anderer Fall Falls Sie jedoch eine GBT-Schnittstelle verwenden, können Sie die benutzerdefinierten Anweisungen verwenden, z. B. wenn können Sie die benutzerdefinierten Anweisungen ich Tamil und Englisch kenne In diesem Fall können Sie sofort darum bitten, dies in etwas zu übersetzen Ich kann verstehen, dass ich Tamil und Englisch spreche. Nehmen wir an, auch wenn ich aufgrund des Kontextes nicht ausdrücklich Tamilisch oder Englisch sage Tamilisch oder Englisch sage, werden Sie das verstehen, okay? Und hier kannst du einsehen, dass es professionell oder lustig sein sollte professionell oder lustig sein Darauf aufbauend wird es Antworten geben. Wenn Sie mit solchen grundlegenden Dingen vertraut sind, können Sie Chart GPT oder jede Art von LLM-Tools effektiv verwenden Chart GPT oder jede Art von LLM-Tools Und als Entwickler können Sie Ihre Anwendung effektiv erstellen In der Open AI haben sie also viele Strategien bereitgestellt. Sie stellten sechs Strategien zur Verfügung, um bessere Ergebnisse zu erzielen, und sie lieferten eine Menge Taktiken. Okay? Also fast alles, was wir hier erklären, haben sie ausführlich zur Verfügung gestellt. Lassen Sie uns zunächst alle sechs Strategien durchgehen, okay? Schreiben Sie klare Anweisungen, es ist offensichtlich, dass wir bereits besprochen haben, Referenztext bereitstellen und komplexe Aufgaben in ähnliche Unteraufgaben aufteilen und dem Modell Zeit zum Nachdenken geben , externe Tools verwenden . Das ändert sich systematisch. Für jede Strategie stellten sie eine Liste mit Taktiken zur Verfügung und gingen diese auch durch. Im Falle einer richtigen, klaren Anweisung können wir diese Taktiken befolgen und Details in Ihre Anfrage aufnehmen , um mehr Elementantworten zu erhalten Sie lieferten einige Beispiele. Wie füge ich Zahlen in Excel hinzu. Anstatt so zu fragen, können wir bestimmte Dinge fragen, richtig. Wie addiert man eine Reihe von Dollarbeträgen in Excel? Ich möchte dies automatisch für eine ganze Tabelle mit Profis tun , wobei alle Summen in der Spalte Summe landen Also müssen wir die spezifischen Details angeben. Anstatt nur zu fragen , wer Präsident ist, können wir fragen, wer 2021 der Präsident von Mexiko ist. Anstatt blindlings nach dem Schreiben von Code zu fragen, können wir nach dem Schreiben einer Type-Geheimfunktion Es ist also so, als würde man spezifische Details angeben, okay? Und die nächste Taktik besteht darin, als Modell Ihre Persönlichkeit anzunehmen, ihre Rolle als, richtig Also, wie ich schon sagte, die DAPA hat diese Systemoption Als Entwickler können wir diese Gelegenheit nutzen Also das habe ich Trennzeichen erklärt, richtig? Wir müssen die Trennzeichen effektiv verwenden , um zwischen den Stichproben o und dem Befehl zu unterscheiden o Falls Sie über zwei Dinge sprechen, können Sie vielleicht dieses Format finden Also der Limiter. Ich muss kein normales Ding sein. Sie können basierend auf Ihrem Kontext dynamisch erstellen. Als Nächstes sehen Sie, wie die Schritte aufgezeichnet werden, um Ihre Aufgabe abzuschließen. Sie müssen Zwischenschritte wie einen ersten und zweiten Schritt angeben . Es kann sich um eine einzelne Kette von Aufgaben handeln. Immer wenn wir den YL-Alaun bitten, einem bestimmten Pfad zu folgen, ist die Ausgabe einigermaßen zuverlässig Das ist meine Beobachtung. Wenn Daten nach dem Endergebnis fragen, wird das nicht viel nützen. Die nächste Taktik besteht darin, Beispiele zu liefern. Die spezifische Länge der Ausgabe. Wir können das also auf etwa 50 Wörter in Absätze und drei Stichpunkte beschränken . Geben Sie also für die nächste Strategie einen Referenztext an. Die Taktik besteht darin, das Modell anzuweisen , den Quelltext zu beenden. Wir müssen also eine Referenz angeben , und dann können wir die Frage stellen Okay? Also das ist eine wichtige Sache, Kontextfenster, begrenztes Kontextfenster, okay? Wir können den Referenztext nicht hören. Nehmen wir an, es handelt sich um einen Artikel mit 100 Seiten, wir können nicht alle hundert Seiten hier unterbringen. Also haben fast alle LLMs dieses Kontext-Fensterlimit Okay? Wenn Sie nach dem Kontextfenster der LLMs suchen, können Sie einige Details zu den Einschränkungen finden Jedes LLM hat seine eigenen Einschränkungen. Okay? Zu diesem Zweck ist das Einbettungskonzept also da Intern müssen wir also die Details als Einbettung speichern und dann dynamisch den Datensatzteil aus den Einbettungen abrufen. Okay? Beim Einbetten der Suche müssen wir sie in der Vektordatenbank speichern Es wird als Rag Retrieval Augmented Generation bezeichnet . Im Falle einer Generierung besteht eine weitere Taktik darin, das Modell anzuweisen , mit Zitaten zu antworten, aus denen der Generierung besteht eine weitere Taktik darin, das Modell anzuweisen, mit Zitaten zu antworten, aus denen der Referenztext stammt. Anstatt dass Staway abrupt eine Antwort gibt, können wir das Modell anweisen, die Antwort mit Zitaten anzugeben, aus welchem Teil es die Antwort aus nächste Strategie besteht darin, eine komplexe Aufgabe in ähnliche Unteraufgaben aufzuteilen Die nächste Strategie besteht darin, eine komplexe Aufgabe in ähnliche Unteraufgaben aufzuteilen. Die Taktik besteht darin, anhand der Absichtsklassifizierung die relevantesten Abschnitte für Ihre Benutzeranfrage zu identifizieren Wenn es zum Beispiel um den Kundensupport geht, okay, es kann verschiedene Bereiche wie Abrechnung, technischer Support, Kontoverwaltung, allgemeine Fragen wie diese geben, richtig Jede Hauptkategorie wird also ihr eigenes Ding haben, Beispiel im Fall von Abrechnung, Abmeldung, Upgrade und Zahlungsmethode. Technischer Support bedeutet, Probleme mit der Gerätekompatibilität wie Softwareupdates zu beheben. Also im Grunde genommen, auch wenn der Kundensupport intern aus verschiedenen Bereichen besteht, oder? Basierend auf diesem Abschnitt müssen wir ihn also klassifizieren, um die relevantesten Abschnitte für Benutzeranfragen zu identifizieren . Wenn sich die Benutzeranfrage also auf die Abrechnung bezieht, kann ich die abrechnungsbezogenen Anweisungen verwenden, oder? Hier haben sie ein Beispiel gegeben. Also dieses Beispiel, wenn der Benutzer fragt, muss ich mein Internet wieder zum Laufen bringen. Das ist der erste Fall bis jetzt, er kann die Klassifizierung vornehmen. Wenn es sich um eine Fehlerbehebung handelt, kann es erneut fragen, ich meine, die Anweisung geben. Nur spezifisch für dieses Problem geeignet. Es wird effektiver sein, oder? Aber im Falle dieses Ansatzes werden wir ihn nicht in harter GPT sehen, so etwas , weil er eine Systemregel braucht, oder? Also hauptsächlich für den APA-Zugriff können wir ihn effektiv nutzen Im Fall der Dialekt-Anwendung hat, wie ich bereits erklärt habe, wie ich bereits erklärt habe, jedes LAM sein eigenes Kontextfenster, und wir müssen den Kontext-Verlauf übergeben , wann immer wir die Eingabeaufforderung richtig schreiben Selbst wenn wir eine einfache Frage stellen, sendet das Diagramm GPT all unsere vorherigen Fragen auch an das GPT-Vier-Modell, damit es den Kontext verstehen kann Aber aufgrund der Begrenzung des Kontextfensters können wir nicht alle Dinge senden, oder? Nach einiger Zeit werden also die vorherigen Fragen gestrichen. In diesem Fall werden wir den Kontext verlieren, richtig. Um das zu vermeiden, können wir den vorherigen Kontext zusammenfassen, okay? Und dann können wir es zu unserer neuen Eingabeaufforderung hinzufügen. Okay. Auf diese Weise können wir mit dem Kontext-Fenster umgehen. Um den Kontext beizubehalten. Im Fall dieser Strategie modellieren Sie Zeit zum Nachdenken, hier haben sie ein gutes Beispiel geliefert. Er fragt einfach sofort, ob die Lösung des Studenten richtig ist oder nicht. Der Benutzer gibt die Problembeschreibung an. Der Assistent sagt sofort, dass die Lösung des Schülers richtig ist. Aber diese Lösung ist nicht wirklich richtig. In diesem Fall können wir es bitten, zuerst Ihre Lösung für das Problem auszuarbeiten und diese Lösung dann mit der Lösung des Schülers zu vergleichen. Okay? In diesem Fall heißt es also, dass die Studentenlösung falsch ist. Wie ich bereits erklärt habe, ist es sehr, ich kann es zusammenfassen da wir das Lm spezifisch steuern müssen Nur dann können wir die richtige Antwort bekommen. Wenn es einfach die Frage stellt und dann die Antwort von Experten gibt, wird es nicht passieren Sie liefern also viele Beispiele, okay? Also hauptsächlich mit Programmieren zu tun, okay? Ich meine, APA-Zugang. In diesem Fall haben sie auch ein gutes Prompt-Beispiel geliefert , okay. Im Falle einer Grammatikkorrektur, also bei der Konvertierung grammatikalischer Aussagen in Standardenglisch, wird die Aufforderung so aussehen, als ob Sie Anweisungen erhalten und Ihre Aufgabe darin besteht, sie in Standardenglisch zu konvertieren Okay? In diesem Fall, wenn der Benutzer nein sagt, ist er in der Lage zu korrigieren C nicht auf den Markt gegangen ist, okay. Die APA-Anfrage sieht so aus. Es verwendet die Klasse zur Vervollständigung von Diagrammen. Sie verwenden das GPT-Viermodell. Wie ich bereits erklärt habe, ist die Systemrolle bei der APA verfügbar Im Fall von Chart GPT, dieser Schnittstelle, werden wir diese Option nicht haben, sondern nur Assistent und Benutzer Hier haben wir die Systemrolle, okay? Fassen Sie also den Inhalt zusammen, den Sie für einen Schüler der zweiten Klasse erhalten , damit er das Konzept auf einfache Weise erklären kann Anstatt dieser technischen Dinge wurde es also in eine leicht verständliche Symbolik umgewandelt Geben Sie viele Beispiele an, vielleicht können Sie das überprüfen, wenn Sie eine Website öffnen, okay? 5. Vorsicht vor KI-Halluzinationen: Hallo, alle zusammen. Dieses Video dient zur Erklärung von A-Halluzinationen Zuallererst, was sind A-Halluzinationen? A-Halluzinationen treten auf, wenn ein A falsche, irreführende oder unsinnige Informationen generiert, irreführende die plausibel erscheinen. Tools wie Chat GBT, Google Gemini, Claudy, Deep C, QN Sind solche Alumnen, große Sprachmodelle, sie sind wirklich nützlich, okay ? Sie sind sehr mächtig. Sie werden nützlich sein um Artikel zu erstellen, Bilder zu erstellen, und sie werden sogar in der Lage sein, Codierung, Programmierung, Debugging, Codierung usw. Es gibt viele Anwendungen, okay? Aber das Problem ist, dass sie halluzinieren werden, okay? Das heißt, sie geben die falschen Informationen an, aber es wird wie eine korrekte Information aussehen Das ist also der gefährliche Teil der Halluzination. Es ist offensichtlich falsch, dann können wir diesen Teil einfach ignorieren , Aber diese falschen oder irreführenden Informationen werden wie echte Informationen aussehen, okay? Wir müssen also sehr vorsichtig sein, wenn wir A-Halluzinationen identifizieren , und wir sollten uns darüber im Klaren sein, dass A-Halluzinationen derzeit inkorrente Natur von A-Modellen sind, okay ? Wir können also eine Menge Dinge tun, um sie in den Griff zu bekommen, aber es gibt keine solide Methode, sie aber es gibt Wir müssen also sehr vorsichtig mit ihnen umgehen, okay? Verursacht uns AA-Halluzinationen. Der erste Grund ist die mangelnde Genauigkeit der Trainingsdaten. Wir wissen, dass A-Modelle auf der Grundlage der Trainingsdaten funktionieren. Wenn es also ein Problem mit Trainingsdaten gibt, wird sich dies natürlich auf die Leistung von A-Modellen auswirken. Halluzinationen treten auf , wenn die Trainingsdaten nicht korrekt sind Und in ähnlicher Weise die übermäßige Verallgemeinerung von Mustern. Wenn diese Daten nicht ausreichend zur Verfügung gestellt werden , um die Generalisierung korrekt durchzuführen, wird es auch dieses Mal zu Halluzinationen kommen Es kann Datenproblem als auch ein Modellproblem Verzerrungen in Trainingsdaten. Wiederum im Zusammenhang mit Trainingsdaten. Wenn die Trainingsdaten keine ausgewogenen Informationen enthalten, treten Halluzinationen Einschränkungen des Modells, das ist wichtig. Wie ich bereits erklärt habe, liegt es in der Natur von AA. Dass AA-Modelle nicht kognitiv sind. Sie sind nicht wie das menschliche Gehirn, oder sie haben keine Intelligenz. Tatsächlich haben sie keine wirkliche Intelligenz. Sie werden auf der Grundlage der Vorhersage funktionieren. Was als Nächstes kommen sollte , dass nur sie sich benehmen werden. Aus diesem Grund werden Halluzinationen auftreten. Ich meine, mangelnde kognitive Funktion , okay? Und schnelle Fehlinterpretation Sofortige Fehlinterpretation, gewissermaßen, wenn wir die Aufforderung vage oder zweideutig geben, dann ist das natürlich so, dass LLMs nicht in der Lage sein werden, die richtigen Antworten zu geben, aber das Problem ist, dass sie Antworten geben werden, die wie zweideutig geben, dann ist das natürlich so, dass LLMs nicht in der Lage sein werden, die richtigen Antworten zu geben, aber das Problem ist, dass sie Antworten geben werden, aussehen Also nochmal, wir müssen sehr vorsichtig sein, okay? Also Prompt Engineering, wir müssen uns mit Prompt Engineering auskennen. Als ob viele Dinge da sind. Wir müssen klare, präzise Anweisungen mit ausreichend Kontext geben , und wir müssen ein paar kurze Eingabeaufforderungen verwenden, diese Art von Herangehensweise und Okay, Schritt für Schritt. Wenn wir die Modelle bitten , den Prozess Schritt für Schritt durchzuführen, dann hilft das natürlich, die Genauigkeit zu verbessern, okay? Es wird die Halluzinationen reduzieren, okay? Wir müssen die richtigen Anweisungen geben . Wenn Sie die Eingabeaufforderungen nicht korrekt eingeben, treten A-Halluzinationen A-Halluzinationen Dies sind die Ursachen für A-Halluzinationen. Als nächstes Beispiele für A-Halluzinationen. A-Halluzinationen werden in verschiedenen Formaten auftreten, es werden es Es können erfundene Nachrichtenartikel erstellt werden, die wie echte Nachrichtenartikel aussehen, ohne dass es akademische Referenzen gibt. Es kann sogar einige akademische Referenzen enthalten , die es in Wirklichkeit nicht gibt. Diese Art von Referenzen wird uns dazu bringen, diese Informationen zu glauben. Okay? Also mussten wir auch das Vorhandensein akademischer Referenzen falscher medizinischer Diagnosen überprüfen. Also ist es offensichtlich besser, AA-Tools für medizinische und finanzielle Anwendungen dieser Art zu vermeiden für medizinische und finanzielle Anwendungen dieser Art , okay? Aber wir können es verwenden, aber diese Antwort direkt als Endergebnis zu interpretieren, ist keine gute Art, mit AA-Tools umzugehen, okay? Und eine andere Sache ist eine falsche historische Tatsache, inkohärente Chatbot-Antworten, okay? Im Großen und Ganzen wird es so sein, als würde man die falschen Informationen auf glaubwürdige Weise weitergeben Wir müssen also bei der Identifizierung von Halluzinationen zusätzliche Vorsicht walten lassen Okay? Das ist ein Beispiel. Ich habe Google Deutschland diese Frage gestellt. Warum hat Google 250 Mitarbeiter entlassen, okay? Basierend auf meiner Google-Suche gibt es also keine aktuellen Neuigkeiten, okay? Tatsächlich habe ich eine Nachricht gefunden, die besagt , dass Google-Mitarbeiter, etwa 250 Mitarbeiter, gegen Googles Vertrag mit Israel oder so protestierten gegen Googles Vertrag mit Israel oder so Okay? Also habe ich einfach die Nummer gefunden und diese Frage gestellt, okay? Aber Deutschland fing an, die Antwort zu geben, okay? Also jemand, der sich dieser Dinge nicht bewusst ist, wenn er diese Frage und diese Antwort sieht , wird er glauben , dass das tatsächlich so passiert ist. Okay? Das ist ein Beispiel, aber es wird auch eine Menge absolut falscher Antworten geben, okay? Wir müssen also sehr vorsichtig mit den Auswirkungen und der Verbreitung von Fehlinformationen Okay? Wenn Sie also zum Beispiel CharBT oder eine andere Anwendung zum Erstellen Ihres Blogposts verwenden, werden Ihre Leser das auch mit anderen Leuten teilen, oder? Und jemand wird ein Video erstellen, das auf diesem Inhalt basiert. Im Grunde werden sich diese Fehlinformationen verbreiten, okay? Viele Leute werden anfangen , diese Fehlinformationen als Karton zu glauben, okay? Das sind also Risiken, okay, rechtliche und ethische Fragen Also, wenn jemand aufgrund dieser Informationen betroffen ist , wird er Klagen einleiten, oder? Also werden solche Probleme auftreten. Selbst wenn sie sich nicht dafür entscheiden, eine Klage einzureichen, ist es trotzdem ein ethisches Problem, oder? Zuverlässige AA-Systeme für Erosion. Wenn wir AA-Systeme nicht richtig verwalten , ohne A-Halluzinationen in Betracht zu ziehen, und wenn Sie die AA-Leistung als letzte Sache betrachten und andere Systeme verwenden , dann werden die Leute natürlich sagen, ihr Selbstvertrauen oder Vertrauen in AA-Systeme verlieren, okay? ihr Selbstvertrauen oder Vertrauen in AA-Systeme verlieren , okay AA-Systeme sind wirklich leistungsstark. Daran besteht kein Zweifel, okay? Aber wir müssen es richtig einsetzen. Andernfalls wird das Vertrauen der A-Systeme beeinträchtigt, okay? Potenzieller Schaden in kritischen Bereichen, zum Beispiel Gesundheitswesen und Finanzen, okay werden Sie die Auswirkungen natürlich Wenn Sie im Gesundheits- und Finanzwesen falsche oder falsche Informationen verwenden, sofort spüren. Es wird schwer sein, oder? Als Nächstes werden AA-Halluzinationen erkannt und reduziert. Okay? Wie ich bereits erwähnt habe , sind Halluzinationen ein fester Bestandteil von A-Modellen. Es gibt also keine Möglichkeit, Hallisationen vollständig zu vermeiden Aber wir können etwas tun, um sie zu erkennen und diese Auswirkungen zu reduzieren , okay Eine davon ist die Gegenprüfung eines generierten Kontakts. Das ist offensichtlich. Also wann immer Sie Antworten von A-Tools wie HarGPD, Gemini, Cloud, DC, n oder anderen Modellen Der erste Schritt besteht darin, die Ausgabe anhand anderer Quellen zu überprüfen die Ausgabe anhand anderer Quellen zu überprüfen Ist eine Sache. Und die andere Sache auch, wir können die Ergebnisse von einem Modell abrufen und mit einem anderen Modell abgleichen. Das ist also eine andere Sache. Aber letztendlich ist es besser, das mit irgendwelchen Originalquellen abzugleichen, okay? Und verbessern Sie die Trainingsdatensätze. Wenn wir also unsere eigenen Modelle verwenden, können wir die Trainingsdaten ordnungsgemäß bereitstellen. Wir müssen ausgewogene, unvoreingenommene Trainingsdaten mit genügend Daten hinzufügen unvoreingenommene Trainingsdaten mit genügend Daten , die alle derartigen Szenarien abdecken Okay. Als Nächstes implementieren wir die Überprüfung durch den Menschen in der Schleife. Wir müssen Menschen einsetzen, um den A-Ausgang zu verifizieren, okay, die Interpretierbarkeit von A und die Überwachung verbessern Praktiken. Halluzinationen sind eine Es ist also wirklich wahr. Okay. Ja, wie gesagt, A-Tools sind wirklich mächtig, okay. Aber aufgrund dieser Halluzinationen sind ihre Einsatzmöglichkeiten momentan begrenzt, kommerziell nutzbar Im Moment können wir nicht erwarten , KI-Tools aufgrund dieser Halluzination häufig eingesetzt werden, und es sind kontinuierliche Verbesserungen und Kontrollen erforderlich kontinuierliche Die ethische Entwicklung von AA ist entscheidend für die Zuverlässigkeit. Bewusstsein und verantwortungsbewusster Umgang mit KI sind entscheidend, okay? Im Moment ist das Erste Bewusstsein, okay? Das ist wie in diesem Video, okay? Aber aus technischer Sicht können wir eine Menge Dinge tun, okay, vor allem die erweiterte Generierung testen. Wir nennen das Erdung der LLMs, okay? Indem wir einige externe Daten geben, können wir die LLMs dazu bringen, die Nationen der Calise zu meiden , indem wir diese externen Daten nehmen Das ist ein Ansatz, bei dem wir Ag-Systeme im Fall von A-Anwendungen verwenden können , oder im Fall einfacher Eingabeaufforderungen können wir anhand einiger solider Beispiele einige kurze Aufforderungen verwenden . In diesem Fall werden die LAMs natürlich versuchen, die Halluzinationen zu vermeiden Okay? Also gibt es zwei Dinge. Eines ist Bewusstsein. Wir müssen uns über das Verhalten von A-Tools im Klaren sein. Und eine andere Sache ist die Verwendung von Ansätzen zur Verringerung der Auswirkungen. Aber wie gesagt, wir können es nicht vollständig kontrollieren. Wir müssen es immer im Hinterkopf behalten. 6. Google Teachable Machine – die einfachste Methode zum Training von KI: In diesem Video wird die Teachable Machine von Google erklärt Teachable Machine ist ein webbasiertes Tool. Wir können darauf zugreifen, indem wir einfach Teachable Machine Dot mit google.com Es ist also ein browserbasiertes Tool. Es wird sehr nützlich sein, um Training des maschinellen Lernmodells zu erklären. Okay? Wir können das maschinelle Lernmodell mit Bildern, Audio und Pose trainieren . Daher wird dieses Tool für Anfänger sehr nützlich sein , um die KI zu verstehen. Abgesehen von der Erklärung von KI kann es uns auch helfen, das trainierte Modell zu erstellen , damit wir es in unserer Anwendung verwenden können. Es gibt also zwei Zwecke. Einer dient der Erklärung des Konzepts. Ein anderes, wir können dieses Modell wirklich in unserer Anwendung verwenden. Okay? In erster Linie hat Google damit angefangen, um das A-Konzept zu erklären, aber wir können es trotzdem für unsere Anwendung verwenden. Es verwendet tatsächlich intern Tensorflow Dot S für das Modell In ähnlicher Weise können wir es beim Exportieren als Tensorflow-Punkt-JS-Datei exportieren Okay. Du siehst die Erklärung, oder? Also hier, ähm, es ist der Abzugsprozess, richtig? Also hier unterscheidet es Metall und Nichtmetall, Baum und Flügel, also alles nach Abzug . Okay? Also ist es Audio. Schnappen und klatschen, das unterscheidet. Okay? Also im Grunde funktioniert es für Bilder. Ich werde für Audio arbeiten, es wird für die Post-Regie funktionieren. Okay? Es ist also eine sehr einfache Sache, leicht zu verstehen, und Sie können alles im Browser selbst erledigen. Okay? Also lass es mich erklären, indem ich dir eine Demo zeige, okay? Lassen Sie mich zunächst auf „Los geht's“ klicken. Hier sehen wir also drei Optionen, oder? Imageprojekt, Audioprojekt und Post-Projekt. Ich nehme nur ein sehr einfaches Beispiel für ein Imageprojekt. Okay? Also wähle ich das Standard-Bildmodell. Also hier sehen wir Training in Klasse eins, Klasse zwei, eine Vorschau auf diese Dinge zeigt, richtig. Es wird also im Grunde so funktionieren, dass wir Trainingsdaten für jede Klasse bereitstellen müssen . Okay? Nach dem Hochladen der Trainingsdaten mussten wir das Modell einmal mit den Daten trainieren Dann können wir das trainierte Modell verwenden , um es für die Erkennung anderer Bilder Okay, das ist das Gesamtkonzept. Also hier, Klasse eins und Klasse zwei, werde ich ein sehr einfaches Beispiel nehmen: Katze und Hund. Okay? Klasse eins ist Katze, Klasse zwei ist Hund. Oder das Geben von Bildbeispielen. Entweder wir können Webkameras verwenden, Objekte in Echtzeit, wir können einfach diese Webkamera in Zukunft verwenden oder wir können die bereits verfügbaren Bilder hochladen. Okay? Also entscheide ich mich einfach für die ganz einfache Sache. Das heißt, ich werde die Daten hochladen. Ich habe bereits ein paar Katzen - und Hundebilder aus dem Internet heruntergeladen . Ich behalte drei Bilder für das Training und ein Bild für das Testen. Okay? Also werde ich jetzt die Trainingsbilder hochladen, okay? Also wähle ich die Katze also lade ich drei Katzenbilder hoch, richtig. Und in ähnlicher Weise werde ich auch für den Hund hochladen. Im Moment also drei Katzenbilder mit der Bezeichnung Katze, drei Bilder von Hunden, die als Hund gekennzeichnet sind. Es gibt verschiedene Arten von Bildern, oder? das Modell zu trainieren, müssen wir also grundsätzlich verschiedene Bilder verwenden, und es ist besser, eine größere Anzahl von Bildern zu haben , um eine bessere Genauigkeit zu erzielen. Okay? Jetzt werde ich es trainieren. Die fortgeschrittenen APOC-Dinge sind also da. Vielleicht brauchen wir uns über diese Dinge jetzt keine Sorgen zu machen. Ich werde auf Zugmodell klicken. Okay? Also bereitet es Trainingsdaten vor. Also trainiere ich jetzt das Modell, okay? Das Training wurde abgeschlossen. Jetzt müssen wir das Eingabebild zum Testen angeben. Okay. Also werde ich jetzt eine Katze benutzen. Katze testen, okay? Also hat es jetzt als Katze Regie geführt, 100% ig selbstbewusst, okay? Also seht ihr, wir haben mit diesen drei Katzenbildern trainiert, aber diese Katze ist völlig anders als diese drei, aber sie ist trotzdem in der Lage, dieses Katzenbild als Katze zu identifizieren, okay? Jetzt können wir es mit einem anderen testen. Okay, okay. Also haben wir jetzt als Hund Regie geführt, okay? Also so einfach. Okay? Wir können das Modell exportieren. Wenn Sie also auf Modell exportieren klicken, können wir die Tensorflow Dot JS-Datei abrufen Okay? Du kannst es herunterladen. Okay? Sie können den Link sogar teilen , damit jeder, der Ihr Modell verwenden möchte , es verwenden kann. Okay? Eigentlich haben wir Trainingsdaten ausgewählt und als Katze und Hund gekennzeichnet und diese beschrifteten Bilder verwendet um das Modell einmal nach Fertigstellung des Modells zu trainieren. Wir haben es mit Eingabebildern getestet , indem wir ein Katzenbild und ein Hundebild eingegeben haben. Bei der Eingabe des Katzenbildes wurde erkannt, dass es sich um eine Katze handelt, also 100% ig, und wenn ein Hundebild gegeben wurde, wurde es als Hund erkannt. Okay? Also, wenn du in der Lage bist, diese Übersicht zu verstehen, kannst du es mit verschiedenen Dingen versuchen. Eigentlich habe ich verschiedene Samples durchgesehen , die mit diesem, ähm, Tool erstellt wurden , okay? Also eine Menge sehr, sehr innovativer Dinge. Okay, denn im Grunde wirst du in der Lage sein, das Modell mit vielen verschiedenen Dingen zu trainieren , ich erzähle dir nur von der ganzen Sache. Abgesehen von diesem Bild erlaubt es auch, mit Audio zu trainieren und zu posieren, oder? Mir ist ein interessantes Beispiel aufgefallen, zum Beispiel mit Flossen, jede Fingerposition gesteuert wird, ähm, als ob sie mit Musiknoten korrelieren Okay? Auf diese Weise werden sie in der Lage sein, Musik zu erzeugen , indem sie einfach die Finger in der Luft bewegen. Okay? Das ist nur ein Beispiel. In ähnlicher Weise können Sie dies für eine beliebige Anzahl von Arbeiten tun. Okay. Sie können es also für kreative Zwecke verwenden, und wenn solide Arbeit ansteht, können Sie einfach darüber nachdenken, wie Sie es verwenden können. Okay, ich werde dir helfen, viel Zeit zu sparen. Abgesehen vom Lernzweck kann es sogar für echte Zwecke verwendet werden, okay? Also habe ich mir überlegt , das zu erzählen , nur um einen Überblick darüber zu geben, wie das Training funktionieren wird. Aber es gibt auch viele andere Dinge, okay? Ähm, das sind sehr komplexe Dinge. Ähm, aber meistens ist der grundlegende Prozess dieser. Sie müssen die richtigen Trainingsdaten auswählen und diese beschriften und dann das Modell trainieren. Mit einem trainierten Modell können wir das Objekt erkennen, okay? 7. Die ultimative Liste der KI-Tools, die du 2025 erkunden kannst: Das Video soll einen Überblick über einige KI-Tools geben. Eigentlich habe ich es in ein paar Abschnitte unterteilt, einen Chat-Bots, A für die Bilderzeugung, A für die Videoerstellung, KI für Audio, A für Codierung, A für Produktivität, A für Forschung und lustige A-Experimente. Okay. Lass mich eins nach dem anderen zeigen. Der erste ist Chat GPT. Es wird von Open AI bereitgestellt, okay? Ich habe mich bereits damit angemeldet. Andernfalls müssen wir uns zuerst anmelden, okay? Wir können unser Google-Konto auch verwenden, um diesem HAGPT anzumelden. Okay? Sie können zu chgpt.com kommen und Fragen stellen. Okay. Es wird Antworten auf Ihre Fragen geben. Es wird mit dem Modell LLM GPT Four betrieben, okay? Und wir können das Modell auch ändern. Das werde ich zeigen. Im Allgemeinen wird jedoch standardmäßig das GPT-Vier-Modell verwendet Es ist ein Modell mit mehreren Modellen. Das heißt, wir können Fragen im Text stellen. Wir können Bilder verwenden. Okay. Lassen Sie mich zunächst mit einer sehr einfachen Sache beginnen. Was ergibt vier plus fünf. Okay. Es wird sofort die Antwort geben. Okay? Und wir können es bitten, ein Gedicht zu schreiben, ein Gedicht über den Mond. Es wird das Gedicht schreiben. Wenn Sie der Meinung sind, dass das Gedicht lang ist, können Sie es bitten, es neu zu schreiben, indem Sie es verkleinern Du kannst es bitten, es kurz zu machen. Oder Sie können es sogar bitten, den Ton zu ändern, andere Dinge. Okay? Also kannst du interaktiv mit CarpT arbeiten, okay Sie können nicht nur Text, sondern auch Bilder verwenden. Sie können beispielsweise ein Bild hochladen oder es von Google Drive abrufen. Okay. Also kannst du alle Bilder hochladen und Fragen dazu stellen, okay? Also lade ich nur diese Einführung zu diesem Vorschaubild hoch, okay? Also kann ich Fragen stellen. , zunächst kann ich dich bitten, den Text auf dem Bild zu sagen, okay? Erzählen Sie den Text auf diesem Bild. Es ist also eine Art OCR. Es wird im Text erkannt und es wird der Satz, okay, Einführung in KI, okay? liegt an ihnen, dass du es bitten kannst, es zu beschreiben, welche Farbe, wie es aussieht. Okay? Nicht nur dieses, wir können ChargPT sogar bitten, Bilder zu erstellen, okay? Vielleicht können wir es bitten, ein ähnliches Bild zu erstellen, ein attraktives Bild zu erstellen, um diesen Text zu zeigen Okay, es wird versuchen, das Bild zu erstellen. Sie können sogar Anweisungen geben, so sollte der Hintergrund so aussehen. Sie können diese Art von Schrift so verwenden. Okay. Nun, Einführung in. Also ist es etwas besser als das, oder? Wir können es für Werbung und andere Dinge verwenden. Okay. Angenommen, Sie haben ein solches Video erstellt und möchten es auf Instagram und Twitter bewerben, können Sie dieses Bild verwenden. Es sind also viele Dinge da. Nicht nur dieses, auch in Echtzeit, wir können damit einige Details aus Bildern und Textdetails abrufen. Okay? Das spart viel Zeit und Zeit für das Tippen der Dinge. Aber eine Sache ist, dass manchmal die Antworten falsch sein können, also müssen wir wegen Halluzination sehr vorsichtig sein , okay Und wenn Sie möchten, können Sie dieses Lautsprechersymbol verwenden, um den Text als Audio zu hören In ähnlicher Weise können Sie dieses Symbol für das Sprachmodussymbol zum Sprechen verwenden . Anstatt zu tippen, können Sie einfach Fragen stellen , indem Sie auf dieses Mikrofon klicken. Okay? Außerdem können Sie JGBT auch zum Schreiben von Codierungen verwenden JGBT auch zum Schreiben von Codierungen Wir können es bitten, einen Python-Code für Reverse-Tests zu schreiben. schreiben nicht nur Code, wir können unseren Code auch einfach hierher kopieren und ihn bitten, ihn zu debuggen, oder wenn Sie eine Erklärung wünschen, wird er jeden Satz einzeln erklären Okay. Also es ist eine wirklich nützliche Sache. Sie können es auch für die Erstellung von E-Books verwenden, okay? Es ist nur ein Überblick über Char GBT. Aber viele Dinge sind da. Wir müssen schnelle Technik einsetzen. Als nächstes kommt Deutschland, Google Deutschland. Es ist fast ähnlich wie Char GBT. Hier können Sie auch Fragen stellen. Sie können Bilder und Audio verwenden. Okay? Also fast genauso wie Char GbT. Okay, erstelle ein Bild für mein E-Book-Cover. Wir können verschiedene ALM-Chat-Bots untersuchen , um bessere Antworten zu erhalten. Wir können einfach verschiedene Dinge wie ChargBTGEmany oder Deep Seek durchgehen Deep Okay. Wir können den besten gebrauchen, okay? Und sogar du kannst es überprüfen. Sie können es bitten, einen Artikel von Char GBT zu erstellen und diesen Inhalt in Deutschland einzufügen und Deutschland zu bitten, zu überprüfen ob ein solcher Fehler vorliegt, okay Fast alle Dinge sind ähnlich, okay. Und in ähnlicher Weise verwirrtes DAA. Es wird als Suchmaschine angesehen. Wir können auch hier die neuesten Informationen erhalten. Okay. Hier können wir auch Fragen stellen. fast all diesen Dingen müssen wir uns einloggen, okay? Ich habe mich schon angemeldet. Andernfalls werden Sie aufgefordert, sich anzumelden, okay? Das sind alles A-Chatbots. Wie viele andere Dinge auch da. Also, Deep C ist gerade, es wächst sehr schnell, okay. Und als Nächstes steht A für Bildgenerierung und Bearbeitung. Di ist ein von Open AI bereitgestelltes Modell zur Bilderzeugung. Es ist bereits in SHAPT integriert. Deshalb können wir Bilder in Char GBT selbst erstellen , okay So können wir Testbeschreibungen geben und es werden automatisch Bilder generiert, und es werden automatisch Bilder generiert die auf unseren Beschreibungen basieren Okay? Es gibt viele Anwendungen, die Di verwenden. Du kannst sie benutzen. Sie können sie sogar zum Erstellen Ihrer eigenen Anwendung verwenden. Okay? Als nächstes kommt Canva AI, Magic Design, Magic Edit So können wir verschiedene Funktionen sehen. Mach mir sofort ein Bild, schnelleres Design zur Trockenreinigung, entferne Hintergründe. Okay? Alle verwenden KI, okay? Wir können darum bitten, ein Bild zu erstellen, ein Bild mit dunklem Kopf und Picabeinen zu erstellen. Okay? Ich erzähle es nur als Beispiel, aber Sie können es für jede Art von realen Dingen verwenden, okay, für Ihre Marketingzwecke. Als Nächstes entfernen Sie Punkt BG, um die Hintergründe mithilfe von KI aus den Bildern zu entfernen , okay? Also hier kannst du einfach das Bild hochladen, okay, und es dann bitten, den Hintergrund zu entfernen. Okay? Es wird es entfernen. Hier. Sie haben ein paar Proben zur Verfügung gestellt, okay? Das spart eine Menge Zeit für größere Bearbeitungen, oder? Der nächste ist A für Videoerstellung. Der berühmte ist Runway ML. Also hier können wir anfangen, es zu benutzen. Sie lieferten viele Beispiele. Extra ist in diesem ein. diesem ist auch ein kostenloser Videogenerator enthalten. Du kannst einfach Text für die Erstellung von Videos angeben, okay? Sie haben auch Beispiele zur Verfügung gestellt, gehen Sie das einfach durch. Und ähnlich die PCR-Labore. Also und ist sowohl für die Audiogenerierung als auch für die Transkription nützlich . This even Labs ist berühmt für die Erstellung von Stimmen Sie können einfach den Text geben. Ich werde in Sprache umwandeln. Okay. Sie müssen nur den Text eingeben und dann können Sie einige Optionen auswählen, dann wird das Audio für Sie erstellt. Und dieser eine Whisper von Open AI. Es ist ein Tool zur Transkription von Sprache in Text. Also müssen wir das Vice hochladen und es wird in Text umgewandelt Das spart viel Zeit bei der Transkription. Okay? Dieser Vice von AAA klont deine Stimme, okay? Ein Laster. Um weiteren Text zu generieren. Also ich gebe nur als Beispiel, es können viele Dinge getan werden. Okay, also nur ein paar Beispiele, du kannst einfach diese Seiten durchgehen und es selbst ausprobieren. Okay. Abgesehen davon kann E auch beim Programmieren sehr nützlich sein. Im Fall von Git Copilot kann es dir zum Beispiel helfen, die Codierung auf deine Lieblings-ID selbst zu schreiben , okay? Wenn Sie also den Code angeben und ihn bitten können, den Fehler zu beheben Okay? Es wird den Fehler beheben und den Code selbst aktualisieren, okay? In ähnlicher Weise gibt es andere Tools , Codim Tab Nine. Und Produktivität für Produktivität, der Begriff ist sehr bekannt Fast können wir viele Dinge innerhalb des Begriffs selbst tun. Okay, es wird also eine Menge Zeit sparen. Also viele Leute nutzen das, um die Produktivität zu verbessern. Okay? Sie können suchen, Dokumente generieren, Erkenntnisse analysieren, um Erkenntnisse zu erhalten. Wir können mit jeder Art von Chat-Bots chatten. Alles kommt aus dem Begriff selbst, okay? Sie können die Proben hier sehen. Und was die Grammatik angeht, hoffe ich, dass es jeder benutzen wird die Grammatikprüfung anzusehen, oder? Es wird beim Schreiben sehr nützlich sein. Und für die Recherche sind viele wissenschaftliche Mitarbeiter da um wissenschaftliche Arbeiten zusammenzufassen Es wird also viel Zeit sparen. Okay. Und viele lustige Experimente gibt es auch. Also diese Seite, diese Person existiert nicht. Es wird nach dem Zufallsprinzip ein menschliches Bild erzeugen. Eigentlich ist es kein Bild eines bestimmten Menschen. Es wird generiert. Okay. Es sieht also aus wie eine echte Person. Wenn Sie auf Referenz klicken , werden neue Bilder generiert. Nur zum Spaß, damit wir die Macht von A und diese tiefe Nostalgie verstehen , können Sie einem alten Bild geben Es wird automatisch ein Video dafür generieren, zum Beispiel für dieses Bild, es hat dieses Video erstellt Eine Menge Dinge, die sie zur Verfügung gestellt haben. Du kannst es selbst versuchen. Also all diese Dinge nur um einen Überblick darüber zu geben, wie A verwendet werden kann. Aber in der realen Anwendung ist es in fast allen medizinischen Branchen fast nützlich. Sie sind also nützlich, um Krankheiten anhand der Scans zu identifizieren. Okay. Sogar es ist nützlich, um neue Medikamente zu entwickeln. Okay. Also, nur um das zu verstehen, nur um dich damit vertraut zu machen, kannst du diese Dinge durchgehen, damit du die A-Macht verstehen kannst, okay? 8. KI-Jargon für Anfänger:innen: In diesem Video werde ich einige Begriffe erläutern , die mit künstlicher Intelligenz A zu tun Lassen Sie mich zunächst mit dem beginnen , was ein A-Modell ist. Ein A-Modell ist ein Computerprogramm, das Muster aus Daten lernt und Vorhersagen trifft oder Antworten generiert. Das heißt, wir müssen zuerst das A-Modell anhand von Daten trainieren, dann wird das trainierte Modell in der Lage sein, Vorhersagen zu treffen. Einige A-Modelle werden mit Rohdaten von Grund auf neu trainiert. Und wir haben bereits viele vortrainierte Modelle, sodass wir schnell mit der Entwicklung beginnen können , ohne Zeit für das Training der Modelle aufzuwenden , okay? Aber wir müssen eine Art Feinabstimmung vornehmen, damit es für uns funktioniert. Also als nächstes, vortrainiertes Modell. Also vortrainierte Modelle, wie gesagt, es gibt viele vortrainierte Modelle, wie Bird für NLP-Aufgaben, natürliche Sprachverarbeitung und Wiser für Spracherkennung und Dali für die Bilderzeugung. Also diese Art von vortrainierten Modellen wird mit einer Menge Daten trainiert, riesigen Daten mit enormer Leistung und Rechenleistung Wir müssen nicht so viel Mühe aufwenden , um dieses Modell zu bekommen Also können wir das Modell einfach an unsere eigenen Empfehlungen anpassen und dann können wir es verwenden. Das ist die nächste Sache, die Feinabstimmung. Feinabstimmung ist also der Prozess dem ein vorab trainiertes A-Modell anhand eines kleineren Spezialdatensatzes, unseres eigenen Datensatzes, weiter trainiert wird, um seine Leistung für eine bestimmte Aufgabe, unsere eigene Aufgabe, zu verbessern . Zum Beispiel kann der allgemeine Chatbot wie GPT auf juristische Dokumente abgestimmt werden , um genauere Antworten auf Rechtsfragen zu geben genauere Antworten auf Rechtsfragen zu In ähnlicher Weise kann das Bilderkennungsmodell anhand von medizinischen Scans verfeinert werden , um Krankheiten effektiver zu erkennen Die nächste Frage ist Inferenz in der KI. Inferenz ist der Prozess bei dem ein A-Modell das, was es während des Trainings gelernt hat, anwendet , um einen Output zu generieren oder eine Entscheidung zu treffen Im Grunde ist es eine Vorhersage oder die Verwendung des trainierten Modells. Wann immer wir Inferenz sagen, bedeutet das, dass wir das trainierte Modell für unseren Zweck verwenden das trainierte Modell für unseren Zweck Das Beispiel: Wenn Sie eine HargBTA-Frage stellen, analysiert es die Eingabe und generiert eine relevante Antwort auf der Grundlage von Ähnlichem verwendet ein Auto mit L-Fahrtrichtung Inferenz, um Verkehrszeichen zu erkennen und Fahrentscheidungen in Echtzeit Die nächste Frage ist, was ist ein Datensatz in KI? Datensatz ist eine strukturierte Sammlung von Text, Bildern, Zahlen oder anderen Datentypen, die zum Trainieren und Auswerten von A-Modellen verwendet werden zum Trainieren und Auswerten von A-Modellen Wann immer wir ein A-Modell trainieren, müssen wir über qualitativ hochwertige Daten verfügen ordnungsgemäß angeordnet sind , damit der Trainingsprozess effektiv ist Und nach Abschluss der Schulung müssen wir die A-Modelle evaluieren und testen. Auch dafür müssen wir Daten aufbereiten. All diese Daten zusammen nannten uns Datensatz. Die nächste Frage ist, was bedeutet Voreingenommenheit in der KI? Bias in A ist ein sehr wichtiges Thema , da das A-Modell mit Daten trainiert werden kann. Falls die Daten jedoch falsche Informationen enthalten, ist die Funktionalität des A-Modells nicht korrekt. Okay. Wenn es also Probleme mit den Daten gibt, spiegelt sich das in der Leistung des Modells wider. Es wird als Voreingenommenheit bezeichnet. Was ist dann Null-SAT-Lernen? Zero-SAT-Lernen ermöglicht es A, Aufgaben zu bewältigen, die es noch nie zuvor gesehen hat. Wenn ein Chatbot beispielsweise eine Frage zu einem neuen Thema ohne spezielle Schulung korrekt beantwortet , verwendet er Zero-SAT-Lernen Wenn Sie beispielsweise ein Modell verwenden, das nicht mit Zebrabildern trainiert wurde, es aber Zebrabilder erkennen kann, dann spricht man von Zero Set Learning Im Grunde werden die Textbeschreibungen zur Identifizierung verwendet Textbeschreibungen zur Identifizierung Ohne Bildtraining wird es dazu in der Lage sein. Das wird als Zero-Set-Lernen bezeichnet. Was ist dann ein neuronales Netzwerk? neuronales Netzwerk ist eine Art Modell, das die Art und Weise nachahmen soll , wie das menschliche Gehirn Informationen verarbeitet Es besteht aus Schichten miteinander verbundener künstlicher Neuronen, die Muster aus Daten lernen Jedes Neuron empfängt Eingaben, wendet Gewichte und leitet das Ergebnis einer Aktivierungsfunktion weiter, um Entscheidungen zu treffen Neuronale Netzwerke werden beim Deep Learning häufig für Aufgaben wie Bilderkennung, Sprachverarbeitung und Sprachübersetzung Einige Beispiele sind CNNs zur Bildklassifizierung, konventionelle neuronale Netze, CNN-Mittel und RNNs zur Spracherkennung Im Grunde versucht es, die menschliche Gehirnaktivität zu kopieren Das Gewicht in dem Sinne, dass es intern, basierend auf den Trainingsdaten, basierend auf den Trainingsdaten, die Gewichte so anlegt , dass der Verlust geringer wird. Es ist also im Grunde etwas Ähnliches wie unsere biologischen Neuronen. Biologische Neuronen, diese Information basiert auf der Stärke der Verbindung zwischen den Neuronen, richtig? Das gleiche Konzept gilt auch für dieses künstliche neuronale Netzwerk. Was ist dann Tokonisierung bei AA? Tokonisierung ist der Prozess, bei dem Text in kleinere Token aufgeteilt Du kannst es also verstehen. Zum Beispiel ist A mächtig. Ich würde aufgeteilt werden in KI ist mächtig. A verarbeitet diese Tokens anstelle von ganzen Sätzen. Im Fall von Charge GPT besteht ein Token in der Regel aus etwa vier Zeichen Was ist dann generative KI? Generative AA ist eine Art automatisierter Intelligenz , die neue Inhalte wie Text, Bilder, Musik oder Code erstellt neue Inhalte wie Text, Bilder, , anstatt nur bestehende Daten zu analysieren Ermittelt Muster aus großen Datensätzen und generiert Ausgaben auf der Grundlage CharBT erzeugt beispielsweise Textantworten, die menschenähnlich sind. Dali generiert Bilder aus Beschreibungen und Musint Generata wird beim kreativen Schreiben, Design und Automatisierung eingesetzt, um Produktivität und Innovation zu steigern Dieses generierte GAA spielt heutzutage also eine sehr wichtige Rolle, dass große Sprachmodelle, LLMs wie Har GPT, dieses GPT-Viermodell dieses Sie werden mit vielen Daten trainiert. Anstatt das Modell selbst zu trainieren, können wir einfach anfangen, diese Art von LLMs mit APA zu verwenden, und dann können wir unsere A-Anwendungen erstellen Okay? Großzügigkeit spielt heutzutage also eine wichtige Rolle Was ist Halluzination? Eine Halluzination tritt auf, wenn ein A-Modell falsche, irreführende oder unsinnige Informationen generiert irreführende Das klingt überzeugend, ist aber wahr . Das liegt daran, dass A-Modelle Reaktionen auf der Grundlage von Mustern in ihren Trainingsdaten vorhersagen und raten, wenn ihnen genaue Informationen fehlen. Chartbo könnte beispielsweise TFA-Zitate erfinden und falsche historische Fakten liefern die Halluzinationen zu reduzieren, sind qualitativ hochwertige Trainingsdaten, eine bessere Überprüfung der Fakten und Techniken wie die Verankerung von AA-Reaktionen in verifizierten Quellen erforderlich qualitativ hochwertige Trainingsdaten, bessere Überprüfung der Fakten und Techniken wie Um die Halluzinationen zu reduzieren, sind qualitativ hochwertige Trainingsdaten, eine bessere Überprüfung der Fakten und Techniken wie die Verankerung von AA-Reaktionen in verifizierten Quellen erforderlich. Es liegt also im Grunde genommen an der Natur der AA. Okay? Also bis jetzt gibt es keine solide Möglichkeit, das zu verhindern. Wenn Sie mit der Verwendung von Char GPT und Gemini vertraut sind, wissen Sie das vielleicht Manchmal geben wir sogar bei Fragen mit einem kleinen Symbol, Shar GPT oder Gemini, Shar GPT oder Gemini, falsche Der Halston ist ein sehr großes Problem in der KI. Aber um damit umzugehen, haben wir unterschiedliche Ansätze, zum Beispiel Auslösen von Tricks wie Chain of Thoughts und Rag Trial Augmented Generation Indem wir einige externe Daten mit Rag angeben, können wir einfach versuchen, das Halluzinationsproblem zu mildern Aber trotzdem ist es ein großes Problem. Was bedeutet W-Anpassung in KI? Überanpassung liegt vor , wenn ein KI-Modell Muster aus Trainingsdaten zu genau lernt, einschließlich Rauschen oder irrelevanter Details, sodass es bei neuen, unsichtbaren Daten schlecht abschneidet Es ist, als würde sich ein Student Antworten merken anstatt das Thema zu verstehen Eine Überanpassung kann durch Techniken wie Regularisierung, Erweiterung der Dropout-Daten und Kreuzvalidierung reduziert Techniken wie Regularisierung, Dropout-Daten Überanpassung ist zum Beispiel so, dass wir Trainingsdaten haben oder das Modell trainieren, sodass das Modell vollständig trainiert wird, damit es für die Trainingsdaten am besten geeignet Wenn Sie also die Trainingsdaten für Testzwecke verwenden, werden sie einwandfrei funktionieren Sie geben also ein hundertprozentiges Vertrauen Wenn Sie jedoch ein ähnliches Bild verwenden, aber nicht exakt dasselbe wie beim Training, wird es in diesem Fall nicht funktionieren. Okay? Es wird also perfekt für die Trainingsbilder funktionieren, aber es wird nicht für Testbilder oder Bilder für die tatsächliche Nutzung funktionieren. Dafür müssen wir diese Überanpassung reduzieren. Okay? Es gibt also verschiedene Ansätze zur Datenvergrößerung Datenerweiterung in diesem Sinne, sagen wir zum Beispiel, wenn Sie das Modell mit ein paar Bildern trainieren wollen, Datenaugmentation in diesem Sinne, bedeutet das, das Bild umzudrehen, ein Spiegelbild zu erzeugen, die Farben auf diese Weise zu ändern Wir können irgendeine Art von Verarbeitung durchführen und dann können wir die Daten für das Datentraining erweitern Mit diesem erweiterten Datensatz können wir das Modell trainieren, um zu vermeiden , dass der Grund für die Überanpassung darin besteht wir mehr als nur versteckte Schichten oder die Anzahl der Neuronen aufzeichnen Die übermäßige Nutzung von Neuronen führt auch zu einer Überanpassung. Okay? Und was ist dann unzureichend? unzureichende Anpassung liegt vor , wenn ein A-Modell nicht in der Lage ist, aussagekräftige Muster aus den Trainingsdaten zu lernen , was zu einer schlechten Leistung sowohl beim Trainingssatz als auch bei neuen Daten führt sowohl beim Trainingssatz als auch bei neuen Dies ist der Fall, wenn das Modell zu einfach ist oder nicht genügend Trainingszeit zur Erfassung der zugrunde liegenden Zusammenhänge zur Erfassung der zugrunde liegenden Zusammenhänge Es ist, als ob ein Student zu wenig lernt und sowohl mit der Praxis als auch mit dem Feldtest zu kämpfen hat. unzureichende Anpassung kann behoben werden indem ein komplexeres Modell verwendet, Trainingszeit verlängert oder relevantere Merkmale in den Daten bereitgestellt In diesem Sinne kann das Modell nicht einmal für die Trainingsdaten selbst richtig funktionieren Das bedeutet, dass die Daten nicht so gut sind und das Modell nicht in der Lage ist, sie richtig zu verarbeiten, und dass das Modell nicht in der Lage ist , sie richtig zu verarbeiten, die Trainingszeit nicht ausreicht. In diesem Fall müssen wir ein gutes Modell verwenden, komplexes Modell, und wir müssen das Training erhöhen. Und die Trainingsdaten, du musst mehr Funktionen hinzufügen. Bei den Trainingsdaten in dem Sinne , dass der Datensatz Merkmale und Beschriftungen enthalten wird. Ich erzähle nur ein einfaches Beispiel. In diesem Fall sollte die Anzahl der Merkmale oder die Qualität der Merkmale erhöht werden, um eine unzureichende Anpassung zu vermeiden Was ist dann Transferlernen? Beim Transferlernen wird ein A-Modell, das für eine Aufgabe trainiert wurde , für eine andere ähnliche Aufgabe wiederverwendet. Beispielsweise kann ein Modell, das anhand allgemeiner Bilder trainiert wurde , fein abgestimmt werden , um medizinische Scans zu identifizieren. Kann uns helfen, viel Zeit zu sparen. Wir müssen den Regen nicht noch einmal vollständig aushalten. Was sind dann Einbettungen in KI? Einbettungen sind numerische Darstellungen von Wörtern, Bildern oder anderen Daten, die KI-Modellen helfen, Beziehungen und Ähnlichkeiten zwischen ihnen zu verstehen Sie wandeln komplexe Informationen auf eine Art und Weise in dichte Vektoren um , die ihre Bedeutung bewahrt In einem Modell zur Worteinbettung wird das Wort König beispielsweise einem Vektor zugeordnet , der der Königin sehr nahe kommt und so deren semantische Beziehung wiedergibt Einbettungen werden häufig in Empfehlungssystemen zur Verarbeitung natürlicher Sprache und Bilderkennung verwendet Empfehlungssystemen zur Verarbeitung natürlicher Sprache und , um AF zu verbessern. Normalerweise speichern wir die Es ist sehr nützlich beim Abrufen von Rag der erweiterten Generation Es ist eine semantische Bedeutung. Es dient dazu, die semantische Bedeutung beizubehalten. Es wird auch für die semantische Suche nützlich sein. Was ist eine Vektordatenbank? Eine Vektordatenbank ist eine spezialisierte Datenbank zum Speichern und Suchen. Ermöglicht KI-Modellen, schnell ähnliche Bilder, Dokumente oder Texte zu finden, indem sie Vektoren auf der Grundlage ihrer mathematischen Nähe vergleichen , was einer ähnlichen Kosinusähnlichkeit entspricht Dies macht es ideal für Aufgaben wie Bilderkennung, Empfehlungssysteme und semantische Suche Beliebte Vektordatenbanken verbessern die von Facebook bereitgestellten Käufe, Pine Ce, verwalten die Vektordatenbank und Chroma TV. Es ist Open Source Selbst wenn wir es vor Ort verwenden können , ist es Natural Language Processing, NLP NLP ist ein Zweig von AA , der es Computern ermöglicht, menschliche Sprache zu verstehen, zu interpretieren und zu erzeugen Es unterstützt Anwendungen wie Chatbars, Sprachassistenz, C Alexa, Sprachübersetzungen wie Google Translate und Stimmungsanalysen NLP kombiniert Linguistik und maschinelles Lernen, um AA dabei zu helfen, Text und Sprache auf eine Weise zu verarbeiten , die sich für Menschen natürlich anfühlt Wann immer wir eine Anwendung wie CharBT verwenden, können wir Fragen auf natürliche Weise stellen , indem wir Sprachen wie Englisch verwenden Ist beaufsichtigtes Lernen? Überwachtes Lernen ist eine Form des maschinellen Lernens, bei ein A-Modell anhand von beschrifteten Daten trainiert wird, was bedeutet, dass jede Eingabe eine bekannte Zeichenausgabe hat Das Modell lernt, indem es Eingaben den richtigen Bezeichnungen zuordnet und seine Vorhersagen im Laufe der Zeit verbessert ein AA beispielsweise darauf trainiert wird, Katzen und Hunde zu erkennen , müssen Bilder angezeigt werden, die als Katze oder Hund gekennzeichnet sind, damit es lernen kann, neue Bilder genau zu klassifizieren Überwachtes Lernen wird häufig bei der Bilderkennung, Spracherkennung und Spam-Erkennung eingesetzt. Fast alle traditionellen maschinellen Lernverfahren verwenden diesen Ansatz Okay. Also müssen wir die Daten einfach beschriften. Und dann müssen wir diese beschrifteten Daten verwenden, um das Modell zu trainieren. Was ist unbeaufsichtigtes Lernen? Unüberwachtes Lernen ist eine Form des maschinellen Lernens , bei der ein A-Modell Muster, Strukturen und Daten ohne eindeutige Antworten entdeckt und Daten Anstatt aus vordefinierten Kategorien zu lernen, identifiziert das Modell verborgene Zusammenhänge, wie z. B. die Gruppierung ähnlicher Artikel wie Gruppierung ähnlicher Artikel bei der Kundensegmentierung. Sie können Kunden anhand ihres Kaufverhaltens gruppieren, ohne dass Ihnen gesagt wird, zu welcher Gruppe ohne dass Ihnen gesagt wird , zu welcher Unüberwachtes Lernen wird häufig Erkennung von Anomalien, bei Empfehlungssystemen und bei der Datenkomprimierung eingesetzt Empfehlungssystemen Im Fall von unbeaufsichtigtem Lernen müssen wir die Bezeichnungen nicht spezifizieren Es wird die Muster automatisch finden. Ist Reinforcement-Learning? Reinforcement Learning, RL, ist eine Form des maschinellen Lernens, bei der ein AA durch Versuch und Irrtum lernt und für gute Handlungen belohnt und für Fehler Strafen erhält gute Handlungen belohnt und für Fehler Strafen Im Laufe der Zeit optimiert es seine Entscheidungen, um die langfristigen Vorteile zu maximieren RL ist weit verbreitet in der Robotik, beim Spielen von AA-Spielen, Alpha-Go, fahrenden Autos und personalisierten Empfehlungen Im Grunde ist es so, Feedback zu geben, oder? Wenn es sich richtig verhält, wird es belohnt. Andernfalls Strafen für Fehler. Was ist ALM? LLM, das ist eine sehr wichtige Sache. Okay. Es ist ein großes Sprachmodell. Was ist Erklärbarkeit AA? Erklärbarkeit bezieht sich darauf, wie wir verstehen und interpretieren können Einige A-Modelle sind wie Blackboxen Entscheidungen ohne klare Erklärungen getroffen werden, während andere Einblicke in ihre Argumentation bieten Dies wird aus ethischer und regulatorischer Sicht immer aus ethischer und regulatorischer Sicht ethischer und regulatorischer Es ist wichtig zu wissen, wie die VA intern Entscheidungen über den Output trifft. Warum sie diese Informationen weitergibt. Aber es wird einen Kompromiss geben. Wenn Sie sich auf diese Sache konzentrieren, die Effizienz oder Effektivität der kann die Effizienz oder Effektivität der tatsächlichen Arbeit beeinträchtigt werden. Was ist Deep Learning? Deep Learning ist ein Teilbereich des maschinellen Lernens, bei dem künstliche neuronale Netze mit mehreren Schichten verwendet künstliche neuronale Netze mit werden, um Daten zu verarbeiten und komplexe Muster zu erlernen Es zeichnet sich durch Aufgaben wie Bilderkennung, Sprachverarbeitung und das Verstehen natürlicher Sprache aus Deep Learning unterstützt fortschrittliche KI-Anwendungen wie Gesichtserkennung, selbstfahrende Autos, Chatbots, Chat-GPT und medizinische Bildanalyse Deep Learning ist ein neuronales Netzwerk. Was ist ein großes Kontextfenster in AA? großes Kontextfenster bedeutet, dass sich ein A-Modell mehr Wörter in einer Konversation oder einem Dokument merken und diese gleichzeitig verarbeiten kann. Chatboard mit einem kleinen Fenster kann beispielsweise einem kleinen Fenster kann frühere Teile Ihrer Diskussion vergessen, während ein Chatboard mit einem großen Fenster Kontext besser beibehalten kann , Wenn Sie also mit ChargePT sprechen wird es sich auch an Ihre vorherigen Fragen erinnern , oder? Wenn Sie also eine Frage zu Ihrem Computer stellen, können Sie weitere Fragen dazu stellen , ohne den Computer zu durchsuchen, oder? Ist in der Lage, Ihre Frage richtig zu erkennen , weil es in der Lage ist , das Kontextfenster beizubehalten. Wenn es sich also um ein großes Kontextfenster handelt, bedeutet das, dass viele frühere Fragen oder Diskussionen darin gespeichert werden , oder? Wann immer LLM angegeben wird, haben sie sich an dieses Kontextfenster gewöhnt , damit wir ihre Probleme verstehen können. Was ist Few Shot? Durch kurzes Lernen kann AA anhand von sehr wenigen Beispielen eine neue Aufgabe erlernen . Wenn Sie zum Beispiel ein AA zeigen, also nur ein paar beschriftete Bilder eines neuen Objekts, kann es ohne umfangreiches Training ähnliche Bilder erkennen. Wenn wir nur wenig lernen, müssen wir viel Training durchführen. Nur ein paar Beispiele zu zeigen, reicht aus. Selbst im Falle von Prompt-Engineering, für die Verwendung von Char GPT, wir etwas in der Eingabeaufforderung selbst können wir etwas in der Eingabeaufforderung selbst einige Beispiele geben und dann Fragen stellen Meist werden wir in der Lage sein, unsere Fragen zu beantworten. Was ist multimodales A? Multimodal EA kann verschiedene Datentypen wie Text, Bilder und Audio zusammen verarbeiten und verstehen und Zum Beispiel kann Char GBT four sowohl Text als auch Bilder in einer Konversation analysieren GPT four ist ein multimodales Modell. Wir werden in der Lage sein, beide Texte zu bearbeiten. Wir können Fragen stellen. Wir können Fragen per PCH stellen, wir können darum bitten, Bilder zu generieren, wir können das Bild hochladen und wir können Fragen stellen Auf dem Bild. Was ist Computer Vision? Computer Vision ist ein AA-Bereich, der Maschinen hilft, Bilder und Videos zu interpretieren und zu analysieren. Es wird in Anwendungen wie Gesichtserkennung, U-Boot-Fahren und medizinischen Bildern eingesetzt. Es ist auch ein wichtiger Bereich, insbesondere bei selbstfahrenden Autos. Es spielt eine wichtige Rolle, und auch die medizinische Bildgebung ist ein wachsendes Feld. Computer-Vision-Techniken schneiden bei der Identifizierung der Krankheiten anhand der Scanbilder besser ab als die Radiologen die Was ist dann Vortraining versus Feinabstimmung? Beim Training lernt ein Einsteiger Allgemeinwissen aus einem riesigen Datensatz, bevor es für eine bestimmte Aufgabe angepasst wird. Feinabstimmung ist der Prozess, bei dem das A anhand eines kleineren, spezialisierten Datensatzes weiter trainiert eines kleineren, spezialisierten Datensatzes , um die Leistung bei einer bestimmten Aufgabe zu verbessern. Vor dem Training in diesem Sinne können wir, sofern Bilderkennungsmodell vorhanden ist, ein Bilderkennungsmodell vorhanden ist, es so anpassen das medizinische Bild spezifisch identifiziert wird. Es ist eine gute Möglichkeit, beide Dinge in Einklang zu bringen. Das Vortraining dieses riesigen Datensatzes wird in gewisser Weise helfen, und die Eingrenzung unseres spezifischen Bereichs mit einem Feinabstimmungsdatensatz wird in gewisser Hinsicht hilfreich sein Es kombiniert die Kraft beider Dinge. Was ist Datenerweiterung in AA? Datenerweiterung ist eine Technik der der Datensatz durch Änderung vorhandener Daten erweitert Bei der Bilderkennung hilft das Umdrehen, Drehen oder Ändern der Helligkeit von Bildern AA-Modellen beispielsweise dabei , besser zu planen, ohne dass neue Wenn Sie das Yolo-Modelltraining beobachten, können Sie dieses Ding finden Selbst wenn Sie für das Training etwa zehn Bilder verwenden, können Sie, wenn Sie die vom Yolo-Modell erstellten Dateien durchgehen, viele Bilder finden Einige von ihnen sind umgedreht, andere sind Spiegelbilder, gedrehte Bilder, okay also nur sehr wenige Daten vorliegen, wird der Datenerweiterungsprozess den Datensatz vergrößern Was ist die letzte Funktion in AAA? letzte Funktion misst, wie weit die As-Vorhersagen von den richtigen Antworten entfernt sind. A-Modelle sind lediglich das Lernen, das auf der letzten Funktion basiert , um die Genauigkeit zu verbessern. Es ist eine wichtige Sache. Okay? Wenn wir also die Leistung oder Genauigkeit des Modells messen, gibt die letzte Funktion Details über den Fehler an, im Grunde genommen, dass das Modell auf der Grundlage dieses Werts seine Gewichtung ändert. Was ist ein Gradientenabstieg? Gradient Descent ist ein Optimierungsalgorithmus , der A-Modelle dabei unterstützt, ihre internen Einstellungen, d. h. Gewichtungen, anzupassen , um Fehler zu minimieren und das Lernen im Laufe der Zeit zu verbessern. Es ist etwas Ähnliches wie der Backpropon-Algorithmus, oder? Was ist Modelldrift? Modelldrift tritt auf, wenn Genauigkeit eines A-Modells im Laufe der Zeit abnimmt weil sich die realen Daten, auf die es trifft, gegenüber den Daten, auf denen es trainiert wurde, geändert haben. Dies ist häufig bei der Betrugserkennung und im Empfehlungssystem der Fall . Es ist eine Abweichung von der Modellausgabe, okay? Es liegt an der Art der Nutzung. also im Fall von Empfehlungssystemen Wenn also im Fall von Empfehlungssystemen die Zuschauer auf eine andere Art und Weise betrachten, dann ist das zuvor trainierte Modell, das vom Modell ausgegeben wurde, für dieses neue Szenario offensichtlich nicht geeignet, oder? Es wird also als Modelldrift bezeichnet. Wofür ist katastrophal? Geschichten werden vergessen, wenn ein A-Modell, das auf neuen Daten trainiert wurde , vergisst, was aus früheren Daten gelernt Dies ist häufig bei D-Planungsmodellen der Fall, in denen Wissen aus der Vergangenheit nicht effektiv gespeichert Wenn Sie die Daten für Katzen trainieren, dann wird sie nach einiger Zeit, wenn Sie sie für Hunde trainieren, die Identifizierung vergessen , sodass wir verschiedene Ansätze verfolgen können. Wann immer wir neue Daten trainieren, können wir vielleicht auch mit den vorherigen Daten trainieren. Da gibt es viele verschiedene Ansätze. Okay? Was ist erklärbares AA Es geht darum, Einzelheiten darüber zu geben, wie das Modell funktioniert und warum es das so herausgibt Es wird dazu beitragen, dieses Vertrauen und die Rechenschaftspflicht zu verbessern. Was ist verstärkendes Lernen mit menschlichem Feedback R? Es ist eine Technik, bei der A mithilfe von menschlichem Feedback trainiert wird , um seine Reaktionen zu verbessern. Auf diese Weise werden Modelle wie sgpTrfNE darauf ausgelegt, hilfreicher genauer zu sein Wann immer Sie GBT verwenden, werden Sie die Tasten „Daumen hoch“ und „Daumen runter“ haben Indem Sie auf diese Schaltflächen klicken, geben Sie Ihr Feedback Es ist Reinforcement-Learning mit menschlichem Feedback. Was ist Lernen auf Bundesebene? Federate Learning ist eine auf den Datenschutz ausgerichtete Trainingsmethode. Daten verbleiben auf den Geräten der Benutzer anstatt an einen zentralen Server gesendet zu Ein Modell lernt aus verteilten Daten ohne die Privatsphäre der Benutzer zu gefährden. Es speichert Trainingsdaten auf dem Gerät des Benutzers selbst. Anstatt es zu zentralisieren, behalten Sie den Verteiler als Transformator. Ein Transformator ist eine Deep-Learning-Modellarchitektur, die darauf ausgelegt ist, umfangreiche Sprachverarbeitungsaufgaben zu bewältigen Modelle wie GPT, Burt und DFI verwenden Transformatoren, um Text zu verstehen und zu generieren Meist sind es Transformer-Modelle, weil sie in der Lage sind, den gesamten Text gleichzeitig zu verarbeiten Ist aber ein Wissensgraph. Ein Analogiediagramm ist eine strukturierte Information , die Konzepte und Beziehungen miteinander verbindet Google-Suche und Chatboards verwenden Wissensdiagramme, um relevante Antworten zu liefern, indem verwandte Themen verknüpft werden Es verbindet also die Informationen, den Knoten, diese Art des Abrufs erweitert die RAG ist ein A-Ansatz , der die Antworten verbessert, indem relevante Informationen vor der Generierung aus einer externen Datenbank abgerufen relevante Informationen vor der Generierung aus einer externen Datenbank Er hilft Chatbots dabei, genauere und aktuellere Antworten zu geben genauere und aktuellere Antworten zu Im Fall von RAG können unsere Eingabeaufforderungen an die LLMs senden, wir nicht nur unsere Eingabeaufforderungen an die LLMs senden, sondern auch einige externe Daten zusammen mit den Dafür funktioniert dieses Retriever-Modell also. Dafür müssen wir Vektordatenbanken wie Chroma DBR Pine mit diesem Setup verwenden , der Rag wird die Genauigkeit verbessern können Was ist ein A-Beschleuniger? A-Beschleuniger wie GPS und TPS sind spezielle Hardware , die AA-Berechnungen beschleunigt und so Training und Inferenz Training und Inferenz Es ist hardwarebezogen, sodass A-Training und Inferenz schneller funktionieren können. Was ist AGAA AGA führt A-Modelle direkt auf lokalen Geräten wie Smartphones und Kameras aus, anstatt sich auf Cloud-Server zu verlassen Dies ermöglicht eine schnellere Verarbeitung und den Datenschutz. Im Fall von GAA laufen die Modelle auf den Mobiltelefonen selbst Was ist Anti-AA? Quantation reduziert die Größe von AA-Modellen durch die Verwendung von Zahlen mit niedriger Genauigkeit, wodurch sie schneller und effizienter laufen, insbesondere auf H-Geräten. Die Quantifizierung trägt dazu bei, diese GA zu erreichen . Was sind Parameter in A-Modellen Parameter sind die internen Variablen eines A-Modells , die während des Trainings gelernt werden Sie definieren, wie das Modell Eingabedaten verarbeitet , um Vorhersagen zu treffen. In einem Nurnaltwork gehören zu den Parametern beispielsweise Gewichte und Verzerrungen, gehören zu den Parametern beispielsweise Gewichte und Verzerrungen Je mehr Parameter ein Modell hat, desto komplexer Wenn Sie von Modellen mit Milliarden von Parametern hören , z. B. GPD 3 mit 175 Milliarden Parametern, bedeutet das, dass das Modell über eine große Anzahl interner Variablen verfügt , sodass es komplizierte Muster in Daten erfassen Wenn es also mehr Parameter gibt, kann es besser funktionieren Was ist Präzision beim maschinellen Lernen? Präzision ist eine Metrik, mit der die Leistung eines Klassifikationsmodells bewertet wird . Sie misst die Genauigkeit der vom Modell getroffenen Pasitätsvorhersagen Diese Präzisions- und Erinnerungswerte dieser Art von Messungen sind also Erinnerungswerte dieser Art von Messungen sehr wichtig Diese Metriken sind sehr nützlich Qualität des Modells einzuschätzen Präzision ist die Genauigkeit bei der Angabe der Genauigkeit. Wenn Ihr Modell 100 E-Mails als Spam voraussagt und die 90 davon tatsächlich Spam sind, beträgt die Genauigkeit 90 Prozent Die Genauigkeit des Formulars entspricht echten positiven Ergebnissen. Das heißt, 90 von ihnen sind tatsächlich Spam, 90 wurden durch echte positive und falsch positive Ergebnisse ersetzt. Genauigkeit von 90 bis 190 Prozent. Hohe Präzision bedeutet, dass das Modell Fehlalarme gut vermeiden kann. Der Rückruf wird auch Sensitivität genannt. Es misst, wie gut Ihr Modell alle relevanten positiven Fälle identifiziert. Wenn ein Datensatz beispielsweise 100 Spam-E-Mails enthält und das Modell 80 davon korrekt identifiziert, beträgt der Rückruf 80 Seiten. hoher Erinnerungswert bedeutet, dass das Modell die meisten positiven Fälle gut finden kann. Präzision steht die Genauigkeit der positiven Vorhersagen im Mittelpunkt . Das bedeutet, falsch positive Ergebnisse zu vermeiden. Recall konzentriert sich darauf, so viele postatische Fälle wie möglich zu erfassen und falsch negative Ergebnisse zu vermeiden Grundsätzlich sensitives H. Bei einem medizinischen Test bedeutet hohe Präzision, dass die meisten positiven Testergebnisse korrekt sind Ein hoher Erinnerungswert bedeutet, dass die meisten tatsächlichen Krankheitsfälle erkannt werden. Oft gibt es einen Kompromiss zwischen Präzision und Rückruf, und das richtige Gleichgewicht hängt vom Anwendungsfall ab. Was ist der Fen-Score? Der FN-Score ist eine einzige Metrik , die Präzision und Erinnerungsfähigkeit kombiniert. Es ist das harmonische Mittel der beiden und ist nützlich, wenn Sie beide Metriken ausgleichen möchten Der Zaun reicht von 0 bis 1 , wobei eins das bestmögliche Ergebnis ist Er wird häufig bei Klassifizierungsaufgaben verwendet, insbesondere wenn der Datensatz unausgewogen ist Was ist die Konfusionsmatrix? Die Son-Matrix ist eine Tabelle, mit der die Leistung eines Klassifikationsmodells bewertet wird . Im Grunde hilft sie Berechnung von Kennzahlen wie Präzision, Erinnerungsvermögen und Genauigkeit. Okay? Genauigkeit misst den Prozentsatz der korrekten Vorhersagen, die das Modell getroffen hat. Genauigkeit — wahre positive Werte plus echte Negative — wären also im Grunde genommen Gesamtprognosen Genauigkeit ist zwar eine nützliche Kennzahl, kann aber bei unausgewogenen Datensätzen irreführend sein Zum Beispiel, wenn 90 Prozent der Daten zu einer Klasse gehören In solchen Fällen sind Precision, Recall und A Fun Score aussagekräftiger. Was ist eine letzte Funktion? Eine letzte Funktion misst, wie gut ein A-Modell abschneidet, indem sie seine Vorhersagen mit den tatsächlichen Werten vergleicht . Also im Grunde ist es ein Fehler, 9. Lokale Untertiteldateien mit dem Whisper-Modell von openAI erstellen: In diesem Video wird die Verwendung von KI anhand eines sehr einfachen Beispiels erklärt die Verwendung von KI anhand eines sehr einfachen Beispiels Es dient zum Erstellen von Untertiteldateien und Untertiteldateien. Normalerweise können wir, wenn wir uns Videos auf YouTube oder anderen Videoplattformen ansehen, YouTube oder anderen Videoplattformen ansehen, den Text lesen, während wir uns das Video ansehen, oder ? Transkribierter Text Es wird sehr nützlich sein, falls der Aufstieg des Sprechers nicht verständlich ist, oder? Aber um diese Funktion bereitzustellen, muss der Videoproduzent viel Zeit für die Erstellung der Untertiteldateien aufwenden, okay? Aber heutzutage generieren Plattformen wie YouTube automatisch Untertitel, ich meine Untertitel In einigen Fällen ist es jedoch nicht möglich, Plattformen wie YouTube zu verwenden Wie ich in diesem Blogbeitrag erklärt habe, habe ich bereits ein Video erstellt und auf YouTube hochgeladen Anschließend habe ich etwas für das Hochladen auf eine andere Plattform geändert etwas für das Hochladen auf eine andere Plattform Aber wenn ich in diesem Fall dasselbe Video auf YouTube hochlade, um Untertitel zu erhalten, betrachtest du es als dupliziertes Video, und es wird ein Problem sein, okay? In diesem Fall habe ich also andere Optionen untersucht. Viele andere Dinge sind da, okay. Aber sie verlangen Geld. Sie bieten also kostenlose Option für ein paar Minuten Videos. Aber für längere Videos, längere Videos, verlangen sie Geld Okay? Nochmal, ich muss das Video dort hochladen, dass die Dinge da sind, oder? Also habe ich nach A-Modellen gesucht, ob es irgendwelche A-Modelle gibt. Und ich habe festgestellt, dass dieses Whisper-Modell von Open AA bereitgestellt wird Es ist ein kostenloses Open-Source-Modell, okay? Es ist auch ein sehr einfaches Modell. Ich habe mit vielen Daten trainiert. Und das ist wirklich sehr nützlich. Okay. Ich war überrascht von der Qualität der Transkription Okay? Wir können es auf unserem lokalen Computer selbst machen. Sobald wir das Video erstellt haben, müssen wir nur noch das Modell laden und dann die Transkription aufrufen, indem wir unsere Datei übergeben Okay? Falls Sie also EMP für diese Art von Videodatei haben, müssen wir sie zunächst in eine Wave-Datei konvertieren Okay? Zu diesem Zweck können wir Tools wie FFPE verwenden, diese Art von Tools Wir können die Videodatei in eine Audiodatei konvertieren, okay? Danach können wir einfach einen Python-Code erstellen. Dieser pH-Wert im Transkript hat das verursacht, okay? Ähm, also müssen wir das Whisper-Modell eingeben. Angenommen, wenn Sie es zum ersten Mal verwenden, müssen Sie es mit dem PIP-Befehl Pip install, open A Whisper installieren Okay? Sobald Sie diesen Whisper installiert haben, können Sie ihn verwenden Geben Sie einfach das Flüstern ein und laden Sie einfach das Basismodell. Okay? Sobald Sie dieses Modell erstellt haben, können Sie einfach die Transkriptionsfunktion aufrufen , um diese Audiodatei zu transkribieren Wir haben diese Audiodatei bereits mit FF Impact erstellt, oder? Also mit dieser Audiodatei müssen wir das einfach Transcribe nennen , okay? Also wird es das Audio transkribieren , okay? Ich meine, es wird den Sprachinhalt in Textinhalt umwandeln , okay Aber im Fall von Untertiteln müssen wir diese Zeit auch codieren, oder? Startzeit und Uhrzeit. Dann ist es nur wirksam, wenn wir den Text lesen, während wir uns das Video ansehen, oder? Zu diesem Zweck gibt es also viele verschiedene Modelle. Eines der bekanntesten ist das Punkt-SRT-Format. Ein anderes ist das Dot VTT-Modell . Ich meine, Format Jeder von ihnen hat ein paar kleine Unterschiede, okay? Plattformen akzeptieren also meistens DTT-Dateien, aber einige Plattformen akzeptieren nur das Punkt-VTT-Format, okay? Dieser ist also für die Erstellung von DTST gedacht. Also holen wir uns einfach diesen Text und öffnen DtrtFle und erstellen dieses DartMeendt und schreiben es in diesem Okay. Es ist eine sehr einfache Sache. Lassen Sie uns das jetzt sehen, indem wir es ausprobieren. Ich habe eine Audiodatei, diese hier, und das sind die Dateien zum Transkribieren und für die Konvertierung in Python-Code, okay? Es ist sehr einfach. Wir erstellen einfach das Modell, okay, aus dem Basismodell. Und dann rufe ich einfach dieses Protokoll an, okay? Nur damit wir es von hier aus anrufen können. Okay. Ich führe gerade dieses Transkript aus, das ich in Python für diese Audio-Punktwelle codiere , okay? Es wird also viel Zeit in Anspruch nehmen, da es sich um eine sehr lange Datei Mein Computer hat keine GPU. Deshalb gibt es diese Warnungen aus, okay? Wenn Sie eine GPU haben, wird es vielleicht ein Mast sein. Jetzt können wir also verstehen, wie die EAA wirklich funktioniert, oder? Wir machen gar nichts Wir geben nur dieses Flüstern ein. Vorher installieren wir nur PIP install. Es ist keine riesige Datei. Es kann lokal auf jeden kleinen Computer geladen werden, auch auf Computer mit niedriger Konfiguration. Okay. Vergleichsweise ist es auch besser als alle Cloud-Plattformen, okay? Sie können es also für eine beliebige Anzahl von Dateien ohne Einschränkungen verwenden . Okay, falls Sie sich für Cloud flotfm entscheiden, haben sie unterschiedliche Pläne, richtig, also müssen wir das kaufen Okay. Aber wenn Sie wissen, wie man es lokal benutzt, ist das eine sehr einfache Sache. Selbst bei diesem Code können Sie Char GPT einfach bitten, einen Code für die Verwendung von Whisper für Ihre Zwecke zu schreiben Okay. Nehmen wir an, wenn Sie die Ausgabe in einem anderen Format haben möchten, können Sie diesen Code einfach nach HarGPT kopieren und Sie bitten den Code zu aktualisieren, um das gewünschte Format zu erhalten, okay? Anfangs habe ich versucht, die Dotty-Datei mit GPT selbst zu erstellen, ich meine, in eine WTT-Datei zu konvertieren Dieses Format wird jedoch von einigen Plattformen nicht akzeptiert. Besser, ich habe einfach das gewünschte Ausgabeformat angegeben und HGPT gebeten, diesen Code zu erstellen Also hat es diesen Python-Code für die Konvertierung des Formats erstellt. Okay? Nachdem ich diesen Code verwendet hatte, konnte ich das TT CapsEnfle verwenden Aber das Wichtigste ist, dass die Qualität wirklich gut ist. Okay? Normalerweise spreche ich kein Englisch als Muttersprache, okay. Oder sogar YouTube wird Schwierigkeiten haben, meinen Akzent für die Transkription zu verstehen meinen Akzent für die Transkription zu Immer wenn es automatisch den Transkriptions- oder Untertitelinhalt für mein Video generiert , habe ich früher viel Zeit damit verbracht, den Text zu korrigieren Außerdem muss ich Interpunktionen manuell hinzufügen. Komm schon, so. Okay, dann wird es nur einfach sein, den Inhalt zu lesen, oder? YouTube wird solche Sachen nicht machen. Aber ich war wirklich überrascht, das Ergebnis dieses Flüster-Dings zu sehen. Es ist in der Lage, das Konzept zu verstehen und entsprechend die Interpunktion hinzuzufügen Okay, es ist wirklich ein Ding und es entfernt unnötige Füllwörter, wie, okay, also so Aber die USA haben sie alle aufgenommen, ich musste manuell Zeit aufwenden, um diese Dinge zu entfernen Okay? Also ein wirklich gutes Werkzeug, okay? Und außerdem ist es kostenlos und Open Source. Wir können es vor Ort nutzen und haben viele Vorteile : Da wir es programmgesteuert machen können, können wir die Dinge automatisieren. Okay. Angenommen, wir haben 100 Dateien, wir können einfach einen Code erstellen, um sie alle nacheinander ohne manuelles Eingreifen zu konvertieren . Okay? Das ist also die Fähigkeit AAA zu verstehen oder etwas darüber zu lernen. Nehmen wir an, Sie wissen, wie man dieses Flüstermodell benutzt, dann haben Sie eine Menge Vorteile, oder? Das heißt, das ist ein Beispiel. In ähnlicher Weise gibt es viele Modelle, Open-Source-Modelle und vortrainierte Modelle. Okay. Das Einzige ist also, dass wir das Modell nehmen und die passende Funktion für unseren Zweck oder geeignete Modelle finden müssen. Wenn es Parameter gibt, müssen wir diesen verstehen. Das ist der Teil, den wir lernen müssen. Als Entwickler müssen wir nicht mehr ausgeben, um zu verstehen, wie es funktioniert. Es ist gut, das zur Kenntnis zu nehmen, aber ich sage nur, als Anfänger können Sie einfach das Modell nehmen, okay, und verstehen, wie man es benutzt. Dann fangen Sie einfach an, es zu benutzen. Wann immer Sie auf Schwierigkeiten stoßen oder wenn Sie sich weiter verbessern möchten, können Sie weiter gehen, um zu verstehen, wie es gut funktioniert und wie Sie es weiter verbessern können. Okay. Also jetzt ist es abgeschlossen. Lass mich den Ordner überprüfen. Okay, ich habe diesen Untertitel SatiatFle erstellt. Also wurde es geschaffen, oder? Aber diese Tatsache, dass die Zeitkodierung das Format ist, unterscheidet sich von Punkt-VTT, okay? Zu diesem Zweck werde ich es jetzt konvertieren lassen Also , wenn du dir den Untertiteltext ansiehst, ist es wirklich, als ob die Qualität wirklich gut ist, oder? Es hat alles mit Interpunktion hinzugefügt. Okay. Lassen Sie uns jetzt diese Konvertierung ausführen. Es ist sehr schnell, innerhalb von Sekundenbruchteilen, es ist abgeschlossen, oder? Es hat die Zeitformate konvertiert und andere Rekorddaten hinzugefügt, okay? So einfach. Jetzt können wir es auf einer Plattform verwenden, die von diesem Format unterstützt wird. Okay? Ich erzähle es nur als Beispiel, okay? Es ist sehr einfach, aber es könnte viel Zeit sparen. Wenn ich zum Beispiel Ihren Kurs mit einer Stunde vorbereite , muss ich meistens mehr als 2 Stunden aufwenden, um diese Art von Zeitkodierung des Transkripts zu erstellen Selbst wenn ich das Transkript abtippen werde, wird es so sein, als würde es viele Stunden dauern, oder In diesem Fall hilft es also, Zeit zu sparen, indem die Sprache automatisch in Text umgewandelt wird und die Zeitkodierung automatisch durchgeführt wird, oder? Auf diese Weise helfen uns A-Modelle , viel Zeit zu sparen, okay? Es ist ein Beispiel, viele Dinge. Es gibt viele Modelle. Im Fall von Computer Vision können wir uns für das Yolo-Modell entscheiden. Okay. Und viele vorgetäuschte Modelle machen auch die Stimmungsanalyse dafür Wenn Sie sich für eine Phase entscheiden, sogar in Cagle, hat sogar Robo Flow auch einige Modelle, wie Datensatzmodelle sogar in Cagle, hat sogar Robo Flow auch einige Modelle, wie Datensatzmodelle. Alles ist da Wenn Sie also mit diesen Dingen vertraut sind und sie regelmäßig überprüfen, können Sie viele Informationen finden. Ohne ein gewisses Wissen über EAA zu haben, können Sie viele EA-Anwendungen erstellen , nützliche Anwendungen Langfristig können Sie Ihr Wissen darüber, wie es funktioniert, verbessern wie es funktioniert Aber um damit zu beginnen, KI in Ihrer Programmierung zu verwenden, müssen Sie nicht so viel Erfahrung damit die KI-Modelle zu verstehen, okay? Zuallererst sollten wir in der Lage sein, das KI-Modell zu verwenden, gibt bereits verfügbare AE-Modelle. Okay? Es wird sehr einfach sein, okay? Du musst das Paket installieren und das Modell laden und es dann ganz einfach benutzen, okay? 10. Training eines einfachen TensorFlow-KI-Modells mit Google Colab: In diesem Video erkläre ich das Trainieren eines A-Modells mithilfe von Datensätzen und erkläre dann, wie das trainierte Modell verwendet wird Ich versuche es sehr einfach zu halten. Ich möchte hier nicht näher darauf eingehen , weil ich möchte, dass der Anfänger den Überblick über das Training eines A-Modells kennenlernt . Ich möchte hier keine kleinen Details angeben, okay? Diese Website ist also tensorflow.org. TensorFlow ist ein berühmtes Framework für maschinelles Lernen , das von Google bereitgestellt wird. Wir können Tensor Flow für die Entwicklung verschiedener A-Anwendungen verwenden für die Entwicklung verschiedener Als Anfänger findest du viele Tutorials, um KI zu lernen, okay? Auf der Homepage selbst haben sie einen sehr einfachen Python-Code zum Trainieren des A-Modells bereitgestellt , okay? Wir können es ausführen, indem wir auf diesen Link klicken. Wenn wir auf diesen Link klicken, wird dieser Code als Notizbuch in Google Colab geöffnet Okay. Also da können wir einfach den Code ausführen, okay? Wenn Sie mit Colab nicht vertraut sind, werde ich Ihnen jetzt nur einige grundlegende Informationen darüber geben , okay? Wir müssen colab google.com in einem Webbrowser besuchen. Und wir können ein neues Notizbuch öffnen. Es ist ein Notizbuch, Data IPYNB-Datei. Colab bietet Optionen zum Hinzufügen von Codezellen sowie Textzellen Okay? Wir können verschiedene Zellen haben. In die Codezelle können wir Python-Code aufnehmen. Ich füge nur einen sehr einfachen Code hinzu, okay? Und dann können wir es ausführen. Okay, jetzt haben wir das Ergebnis, richtig. Tatsächlich werden RAM und GPU von Google bereitgestellt. Wir müssen uns also keine Sorgen um die Infrastruktur machen. Wir können uns einfach darauf konzentrieren, Programmieren zu schreiben, okay. Und genauso können wir den Text auch hinzufügen, um den Code zu erklären oder irgendwelche Anweisungen zu geben, okay? Und wir können eine weitere Codezelle hinzufügen, bis wir eine weitere Codierung hinzufügen können, okay? Wir können also jeden Abschnitt separat ausführen. Es wird für Debugging-Zwecke und zum Verständnis der Codierung sehr nützlich Debugging-Zwecke und zum Verständnis Okay. Als Anfänger ist es ein sehr einfacher und leichter Weg und selbst ich kann sagen, effektive Art zu lernen, okay. Aber danach kannst du anfangen, jede Art von deiner Lieblings-ID zu verwenden, wie zum Beispiel VS-Code, irgendwas, okay? Okay. Jetzt werde ich diesen Link öffnen. Okay, ich öffne das Notizbuch auf Google Colab, okay? Hier ist der Ablauf wie beim Laden eines neu erstellten Datensatzes und dem Aufbau eines maschinellen Modells für neuronale Netzwerke, das Bilder klassifiziert, dieses neuronale Netzwerk trainiert und dann das Accurcepor-Modell auswertet Das ist der Zweck dieses Beispiels, okay? Für die Einrichtung des Tensorflusses geben sie den Tensorfluss Und zum Laden des Datensatzes verwenden sie den MNIST-Datensatz verwenden sie Okay? Ein IST ist ein Datensatz mit handgeschriebenen Zahlen Wenn wir in der Wikipedia nachschauen, können Sie einige Beispiele sehen Es ist eine handgeschriebene Zahl von Null bis Neun, okay? Sogar Google liefert auch Details darüber, okay? Und tatsächlich hat es 60.000 Trainingsbeispiele und 10.000 Testbeispiele, okay? Ähm, um irgendein A-Modell zu trainieren, ist es erforderlich, sowohl den Trainingsdatensatz als auch den Testdatensatz bereitzustellen , okay? Also müssen wir den Datensatz laden, okay? Und dann ein Modell für maschinelles Lernen erstellen, okay? Dafür können wir Keras verwenden. Keras APA ist eine sehr einfache Art, die Dinge zu erledigen. Ab sofort wird es Teil von Tensor Flow, okay? Es ist einfach, Tensor Flow mithilfe der Keras-API zu verwenden. All diese Schritte dienen also der Einrichtung des Modells. Okay. Und dann können wir das Modell mit dieser Passform trainieren. Okay? Und dann evaluieren Sie das Modell. Okay. Das ist die Grundlage, um das Modell zu erreichen, okay? Aber sie haben auch viele andere Informationen geliefert, oder? Als Anfänger wird es also verwirrend sein , alle Details durchzugehen. Also, ich habe gerade ein einfaches, äh, Notizbuch erstellt, indem ich einfach die grundlegende Codierung kopiert habe, okay? Wir können dieses einfach ausführen, damit wir uns auf den Überblick konzentrieren können. Okay? In der ersten Zelle setzen wir die Datensatzbibliotheken voraus, Keras von TensorFlow und McPlat Okay. Und wenn wir darauf klicken, werden die Bibliotheken geladen. Okay. Dann wird der Datensatz geladen, der NIT-Datensatz, richtig? Also müssen wir es mit Keras laden. Okay? Nach dem Laden des Datensatzes müssen wir die Daten normalisieren. Normalerweise haben die Farbdatenpixel eine Skala von bis zu 55, oder? Aber für neuronale Netze ist es einfach für sie, wenn die Skalierung so 021 ist Okay? Also müssen wir es skalieren. Dafür skalieren wir es also zuerst. Wir laden den MIT-Datensatz und dann skalieren wir die Daten. Okay, das ist nur zu Lernzwecken. Ich zeige nur ein Beispielbild, okay? Wenn wir es ausführen, wird das Beispielbild angezeigt, okay? Es zeigt ein Beispielbild. Das heißt, wir wissen , dass es geladen wurde. Okay? Es dient dazu, das Modell zu definieren. Für jede Art von neuronalem Medikament wird es eine Eingangs - und eine Ausgangsschicht zwischen vielen versteckten Schichten geben. Okay. Also, während wir das Modell definieren, setzen wir diese Parameter eine versteckte Schicht mit 105 Neuronen wie diesem. Okay. Und dann müssen wir das kombinieren, um den Optimierer und den Verlust zu überzeugen Und dann können wir das Modell mit dieser Anpassungsfunktion trainieren das Modell mit dieser Anpassungsfunktion Beim Trainieren des Modells wird also für fünf Epochen trainiert Epoche in diesem Sinne ist es eine Art Iteration, okay? Also wird es fünfmal Training sein. Das Ziel ist also, die Genauigkeit jedes Mal zu verbessern. Okay? Also beim ersten Mal ist die Genauigkeit 0,87 Der Verlust beträgt 0,43. Verlust in dem Sinne, Irrtum, okay? In der nächsten Iteration wurde die Genauigkeit verbessert Bis zu 0,96. Okay? Und der Fehler wurde zuletzt reduziert, richtig? Also, endlich erreichte die Genauigkeit bis zu 0,98, okay? Auf 0,04 reduziert. Okay. Das ist also das Grundtraining für das Modell mit einer bestimmten Anzahl von APs. Okay. Also, jetzt ist das Training abgeschlossen, okay? Jetzt können wir es testen, okay? Weil dieser MNIST-Datensatz auch Testdaten enthält. Ich habe mit einer Datei getestet. Also die Genauigkeit ist 0,87, Verlust ist 0,09, okay? Es ist okay, oder? Jetzt ist der letzte Schritt, dass wir es benutzen müssen. Für dieses Eingabebild hat es uns sieben richtig vorhergesagt, oder? Es ist eine sehr einfache Sache, oder? Als Anfänger können Sie die Gesamtansicht also leicht verstehen . Wir laden einfach den Datensatz und dann richten wir die primitiven Dinge ein. Ich meine, das Modell zu definieren. Dann trainieren wir das Modell mit dem geladenen Datensatz mit einer bestimmten Anzahl von EPOC und testen dann die Genauigkeit Und schließlich machen wir die Vorhersage. Okay. Für die Vorhersage verwenden sie in diesem Beispiel also die Daten, die aus demselben Datensatz stammen. Nehmen wir an, wenn Sie mit Ihrem eigenen Bild vorhersagen möchten, müssen wir eine gewisse Vorverarbeitung durchführen. Nur dann kann es richtig vorhersagen. Okay? Also ab sofort ist es in der Lage, die Vorhersage in dem Sinne wie hier vorherzusagen, das zu Vorhersage in dem Sinne wie hier vorherzusagen, identifizieren, ich meine, eine Zahl aus dem Bild zu lesen, okay? Also läuft es richtig. Hier steht sieben und das Bild sieht aus wie sieben, richtig? Das ist es also. Das ist eine sehr einfache Sache, oder? In ähnlicher Weise können wir jedes Modell nehmen und einfach mit unserem Datensatz trainieren, und dann können wir ihn verwenden, oder? 11. Scikit-Learn (sklearn) Beispiel: In diesem Video werde ich das berühmte Framework für maschinelles Lernen, Psyche Learn, erläutern berühmte Framework für maschinelles Lernen, Psyche Es eignet sich eher für traditionelle Modelle des maschinellen Lernens wie Klassifikation, Regression, Clustering, dimensionale Dt-Reduktion, Modellauswahl Auf dieser Website haben sie also einen von ihnen unterstützten Algorithmus bereitgestellt Und bei Deep-Learning-Modellen ist es besser, Googles Tensor Flow oder Metas Pi Touch zu verwenden, okay? Dieses Psycht Learn ist eher für traditionelle Modelle des maschinellen Lernens geeignet für traditionelle Modelle des maschinellen Lernens Aber es ist eine sehr einfache Sache. Es ist eine Python-Bibliothek. Die Python-Bibliothek ist als SCL Run bekannt, okay? Ähm, sie basiert zufällig auf NumPi Sci Fi- und Matplot-Bibliotheken, Es ist eher für kleine Projekte geeignet, okay. Und es wird sehr einfach und benutzerfreundlich sein. Also besser als Anfänger, du kannst viele Dinge mit aufgedrehtem Lernen ausprobieren, okay Im Fall der Klassifizierung geht es lediglich um die Identifizierung, ich meine, im Fall der Spam-Erkennung, um die Identifizierung, ob es sich um eine Spam-E-Mail handelt oder nicht Es ist wie die Verwendung verschiedener Algorithmen. Und wir können sie benutzen, äh, durch Psyche Learn, okay? Also können wir unser Rekordmodell wählen und dann können wir es trainieren und wir können es benutzen Okay. Ähnlich, Regression Regression werden bei Aktienkursen die kontinuierlichen Werte vorhergesagt , wie bei der Vorhersage des bevorstehenden Aktienkurses . Okay? Es ist also eine kontinuierliche Wertvorhersage. Und ist es einfach, ähnliche Objekte in Gruppen zu gruppieren, okay? mit allem zu tun , was mit Lgatha zu tun hat, okay? Und basierend auf unserer Empfehlung können wir ein geeignetes Modell auswählen und dann Psyched Learn verwenden, um es zu trainieren und dieses trainierte Modell zu verwenden Okay? In ähnlicher Weise gilt es für die Maßrichtung, Modellauswahl und Vorverarbeitung Dieses gezielte Lernen eignet sich jedoch nicht besonders für Deep-Learning-Modelle Bei Deep-Learning-Modellen mussten wir uns für Tensor Flow oder Pitch entscheiden, okay? Lassen Sie mich Ihnen nur ein sehr einfaches Beispiel zeigen um das Thema Psyched Learn zu erklären Äh, lassen Sie mich nur eine Sache mit der Klassifizierung nehmen. Okay? Ich habe den Code hier in das Google Colab eingegeben, okay Auch Datendatensatz Eklan stellt auch Datensätze zur Verfügung. Wir geben nur die Datensätze ein. In diesem Beispiel werden wir den Iris-Datensatz verwenden Es ist wie Details bei einigen Iris-Flows, okay? Es wird die Abmessungen, die Maße der Röhrchen und Blütenblätter und die Etiketten flach halten , okay? Auf der Grundlage dieser Trainingsdaten wird unser Modell Und dann können wir einige Beispieldaten verwenden, um die Vorhersage zu erhalten , sodass das Modell die Blume identifizieren kann, oder? Es ist ein sehr einfaches Beispiel für die Erweiterung dieses Kellons. Ich nehme nur dieses Beispiel. Okay? Also zuerst importieren wir die Datensätze, okay? Und hauptsächlich für das Training, für jedes Modell, müssen wir einige, äh äh, Trainingsdaten sowie Testdaten verwenden , richtig? irgendein Modell zu trainieren, müssen wir zuerst diesen Algorithmus wählen, okay? Ähm, und dann müssen wir Trainingsdaten als auch Testdaten bereitstellen. Dann müssen wir das Modell anhand der Trainingsdaten trainieren. Dann müssen wir das Modell anhand von Testdaten auswerten. Nur dann können wir damit beginnen , es für Vorhersagen zu verwenden. Ich meine, tatsächliche Nutzung, okay? Das ist sehr, sehr einfach für jedes Modell, okay? In dieser Hinsicht bietet SC LN diese Aufteilung der Zugtests an , sodass die Daten, wie Zugdaten und Testdaten, automatisch aufgeteilt werden können . Es wird uns also helfen, Zeit zu sparen. Und dieser Algorithmus, dieser gesendete Klassifikator, das ist ein Klassifikator-Algorithmus, richtig? Also Sklearn Tree aus diesem Paket, wir importieren diese Methode und Metriken zur Messung der Genauigkeit Für jede Art von Modell müssen wir die Genauigkeit messen Es ist eine Art von Test. Normalerweise können wir dieses Modell getrost verwenden, oder? Also müssen wir diese Daten bekommen und dann müssen wir sie trainieren und dann müssen wir sie testen Dann können nur wir sie benutzen, oder? Das ist für jede Art von Modell. Das hebe ich hier nochmal hervor, okay? Im Fall von Scalen versuche ich zu sagen, dass es alle unterstützenden Bibliotheken bereitstellt , sodass wir mit diesem Scalene selbst alles sehr einfach machen können Okay? Wir laden gerade die IRS-Daten. Normalerweise steht X also immer für Features, oder? Und Y sind Beschriftungen. Für jede Art von Klassifizierung müssen wir also sagen, dass ein Hund vier Beine hat, okay, zwei Ohren wie diese, richtig? Also Merkmale des Objekts, dann die Bezeichnung CAT, was sind die Merkmale von CAT und dann Bezeichnung wie CAT. Es ist also eine sehr grundlegende Methode, diese Art von Datentraining durchzuführen. Dafür verwenden wir normalerweise X für die Merkmale und Y für die Beschriftungen. In ähnlicher Weise sind unsere Merkmale im Fall dieser IRS-Flaggendaten wie verlängert mit einem Kelch- und einem Blütenblatt, und Y entspricht offensichtlich dem Label-Flow-Typ und Y entspricht offensichtlich Okay. Und der nächste Schritt ist, wir müssen die Trainingsdaten und die Testdaten aufteilen. Dafür verwenden wir diesen Zugtest-Split, okay? Also geben wir X Five als Argument an, und es wird einfach aufgeteilt in X-Zug und X-Test, Y-Zug und Weißtest Okay. Offensichtlich ist es einfach so, dass der Datensatz in zwei Dinge aufgeteilt wird: Trainieren und Testen Dann müssen wir das Modell wählen. Hier wählen wir den Entscheidungsbaum aus, okay? Also Entscheidungsbaum, klassifiziertes Modell, okay? Und der nächste Schritt ist die Verwendung von Fit, wir mussten das Modell trainieren. Beim Training des Modells mussten wir also die Trainingsdaten bereitstellen, richtig, diese Funktionen und dann die Bezeichnung, richtig? Also Trainingsdaten. Okay, X-Zug, Y-Zug. Okay. Wie ich bereits sagte, mussten wir die Genauigkeit der Nachrichten gewährleisten. Okay? Es ist eine Art Evaluierung bevor es für den tatsächlichen Gebrauch verwendet wird, okay? Also hier verwenden wir diesen Genauigkeitswert. Jetzt haben wir das Laden der Daten abgeschlossen und sie dann in Training und Testen aufgeteilt und dann das Modell erstellt und dann, äh, das Modell mit Trainingsdaten trainiert und dann, Sie wissen schon, die Vorhersage gemacht, okay, mit dem trainierten Modell Und dann berechnen wir auf der Grundlage der Daten die Genauigkeit, okay? Sobald wir mit der Genauigkeit zufrieden sind, können wir mit der tatsächlichen Nutzung fortfahren und jede Art von neuen Proben vorhersagen Also die neue Stichprobe, wir verwenden nur dieses Beispielbeispiel, okay? Ähm, es ist die Länge des Kelchblattes und die Breite des Kelchblattes, die Länge des Blütenblattes und die Breite bis zum Blütenblatt Okay. Wenn Sie also diese Zahlen als Merkmale dieses Probenflusses angeben, können wir das einfach als Vorhersage für die Vorhersage der neuen Probe unter Verwendung dieses trainierten Modells bezeichnen Vorhersage für die Vorhersage der neuen Probe unter Verwendung dieses trainierten Modells Es ist sehr einfach, oder? Aber es deckt alle grundlegenden Dinge des Trainings ab, jede Art von Modell für maschinelles Lernen. Das ist also sehr grundlegend. Alles, auch was Computer Vision angeht, das Grundprinzip ist das Gleiche, okay? Mit Hilfe von Econ kannst du es also leicht lernen, okay? Also können wir es einfach ausführen. Okay, die Genauigkeit ist also 100%, okay? Also können wir mit der tatsächlichen Nutzung weitermachen. Der tatsächliche Wert bezieht sich auf diese Probe, sie klassifiziert sie als Setosa, okay? Nehmen wir an, wenn wir diese Parameter ändern, wird es Regie als etwas Vielleicht habe ich eine andere Probe. Es ist eine andere Sache, okay? Vielleicht können wir es einfach zufällig ändern, okay. Also ist es in der Lage, das Mehl vorherzusagen, okay, basierend auf den Abmessungen des Mehls, okay? Das ist es. Es geht darum, dass AscAln anfängt, es zum Üben zu benutzen. Aber in der Praxis ist es, wie ich bereits erklärt habe, für jede Art von Deep Learning besser, wie ich bereits erklärt habe, für jede Art von Deep Learning besser, Dutzende von Flow zu verwenden , weil diese Produktionsimplementierungen ermöglichen, die alles bieten , was sie einfach machen Aber in Kids of Scale Learn können wir es leicht lernen, okay? 12. Tutorial zum Umarmen eines Gesichts: In diesem Video werde ich etwas über Hugging Face erklären. Hugging Face ist eine beliebte Plattform für künstliche Intelligenz, insbesondere für insbesondere für Es behauptet, KI zu demokratisieren weil es sich um eine riesige Open-Source-A-Community Hier finden wir viele verfügbare Open-Source-Modelle und Datensätze Okay. Und wir können hier auf verschiedene Anwendungen zugreifen. Im Grunde genommen sind hier drei Dinge sehr wichtig. Eines sind Modelle, ein anderes sind Datensätze und Räume. Hier in den Modellen können wir eine Menge Modelle finden, okay, Hunderttausende von Modellen. eine riesige Anzahl von Modellen, und sie sind Es gibt eine riesige Anzahl von Modellen, und sie sind nach multimodaler Computervision, natürlicher Sprachverarbeitung, NLP, Audio, Tabelle, Reinforcement-Learning usw. kategorisiert multimodaler Computervision, natürlicher Sprachverarbeitung, NLP, Audio, Tabelle, , so viele Modelle gibt es hier im Fall von mehreren Modellen, Audio, Text zu Text, Bild, Text zu Text, visuelle Beantwortung von Fragen, okay Und die Computer Vision, hier Tiefenschätzung, Bildklassifizierung, Objekterkennung, Bildsegmentierung, Text zu Bild, Bild zu Text, Bild zu Bild, Bild zu Bild, wie Bild zu Video. Es deckt also fast alles ab, was Computer Vision zu tun hat, und vor allem ist es sehr, äh, der Name steht für natürliche Sprachverarbeitung Abgesehen davon, dass es hier Modelle gibt, stellt es auch eine Bibliothek für die Transformer-Bibliothek zur Verfügung. Mithilfe der Transformer-Bibliothek können wir über diese Pipeline problemlos auf viele Modelle zugreifen. Wir können einfach angeben, Wir können einfach angeben was wir wollen, anstatt den Modellnamen selbst zu geben. Es wird automatisch relevante Modelle finden. Okay? So einfach, mit ein paar Zeilen Codierung können wir eine Menge Dinge tun. Okay? Das ist der Hauptvorteil der Umarmungsphase Und wir können anfangen, es kostenlos zu verwenden, aber je nach Nutzung, nehmen wir an, wenn Sie es stark mit der GPU verwenden, dann werden sie das je nach Nutzung berechnen. Okay? Oh, es sind also hauptsächlich Forscher, die Forschung in diesem Sinne mögen. Selbst wenn Sie etwas entwickeln wollen und etwas erforschen, wird das sehr nützlich sein. Aber für die Produktion glaube ich nicht, ob es geeignet ist oder nicht. Okay. Wie dem auch sei, für was auch immer du etwas tust, du kannst mit den Leerzeichen auch frei hosten, okay? Lass es mich eins nach dem anderen erklären. Hier, Models, wir haben eine Menge Modelle, okay? Ein Modell, das nach verschiedenen Themen kategorisiert ist, damit wir die relevanten Modelle leicht finden können. Und wir können viele Dinge bekommen. Wenn Sie nach einem bestimmten Modell suchen, finden Sie den Beispielcode oder die Details zum Modell. Damit wir dieses Modell problemlos verwenden können. Sie stellten sogar Beispielanwendungen zur Verfügung. Also bleib einfach, du kannst einfach darauf klicken und sehen, wie andere Leute anfangen, dieses Modell zu benutzen. Okay? Soviel Bequemlichkeit, diese Phase der Umarmung ist für die Hochzeit Okay? Also, wenn Sie mit einer Entwicklung noch nicht vertraut sind, würde ich empfehlen, sich intensiv mit der Umarmungsphase zu beschäftigen Okay? Verbringe mehr Zeit mit umarmen Gesichtern Angenommen, Sie möchten dieses Modell verwenden, klicken Sie einfach auf Dieses Modell verwenden Und mit den Transformer-Bibliotheken können wir nutzen, dass sie den Code bereitstellen. Okay. Das Einzige ist also, dass wir hauptsächlich diese Transformer-Bibliothek installieren müssen, diese Transformer-Bibliothek installieren von Hugging Face bereitgestellt wird Und dann kannst du einfach den von ihnen bereitgestellten Assemblercode verwenden , okay? So viel ja. Also vielleicht können wir einige Modelle testen. Wir können das auch von unserem Lokal aus machen. Einige Modelle können sich also wiederholen, andere beispielsweise eine erhebliche GPU-Auslastung. Also werde ich die Dinge über Google Colab erklären , okay? Um diese Probleme mit der Rechenleistung zu vermeiden. Aber meistens habe ich nur hier sehr einfache Maschinen. Aber als ich es mit verschiedenen Modellen versucht habe , funktioniert es reibungslos. Okay. Aber bei einigen Modellen gibt es möglicherweise wiederkehrende Ressourcen. Also besser für Demo-Zwecke, ich werde Google Colab verwenden, aber Sie können es meistens auch auf Ihrem lokalen Computer verwenden Bei einigen Modellen wird es wiederkehrenden APA-Zugriff geben, okay? Meist werden andere Modelle automatisch auf Ihr lokales Gerät heruntergeladen. Okay? Einige werden APA verwenden. Und APA, du kannst einfach ein Token von hier bekommen, okay? Loggen Sie sich einfach in die Umarmungsphase ein, holen Sie sich das Token und exportieren Sie dann einfach den APA-Schlüssel in Ihre Umgebung Dann können Sie einfach die Suel-Codes verwenden, um verschiedene Modelle zu erkunden, verschiedene Modelle zu erkunden nur um sich mit einer Entwicklung vertraut zu machen. Umarmen ist ein einfacher Weg, Umarmen ist ein einfacher Okay? Es gibt eine Menge Models, okay? Du kannst sie erkunden und vor allem sie so kategorisieren , sodass du dein Modell leicht finden kannst , oder du kannst einfach nach dem Modell suchen, okay? Hier haben sie mit dem Trenden angefangen, damit wir die beliebtesten finden können, okay. Und in ähnlicher Weise sind als Nächstes Datensätze dran. Es stellt auch eine Menge Datensätze zur Verfügung. Nehmen wir an, Sie entwickeln Ihr eigenes Modell und möchten mit einigen Datensätzen trainieren, können Sie die Datensätze einfach verwenden Auch hier etwas Ähnliches wie Transformer, Sie können einfach die Datensatzbibliothek verwenden Okay? Nehmen wir an, wenn Sie irgendeine Art von Datensatz verwenden möchten, können Sie einfach diese Bibliothek verwenden. Okay? Aus Datensätzen können Sie also einfach Ladedatensätze wie diesen eingeben Okay? Also so einfach. Okay. Also für Anfänger wird es wirklich nützlich sein, okay? So können Sie viele Modelle, wie Isel, leicht erkunden wie Isel, leicht Innerhalb weniger Minuten können Sie jede Art von Modellen verwenden. Okay. Die Räume, nehmen wir an, ihr Einheimischen habt nicht genug GPU oder andere Dinge, ihr könnt die Räume erkunden. Hier haben bereits viele Leute einige Modelle verwendet und einige Anwendungen erstellt. Okay. Also kannst du sofort diesen erkunden. Und wenn Sie irgendeine Art von Anwendung entwickeln, die diese Modelle verwendet , können Sie diesen riesigen Bereich auch frei hosten Damit auch eine andere Zelle durch dein Ding gehen kann. Es gibt viele Anwendungen. Es liegt am Image, es dauert einige Zeit. Du kannst diese Dinge erforschen. Es gibt eine Vielzahl von Modellen und Anwendungen. In ähnlicher Weise können wir einfach eine Anwendung erstellen und sie im Space hosten. Wir können neuen Raum schaffen und dann können wir einfach unser Okay geben. Wir können Stem Whet oder Gradual für die Entwicklung unserer Benutzeroberfläche verwenden. Okay? Also hier geht es um Leerzeichen. Auf ähnliche Weise können wir Datensätze und Modelle verwenden. Okay? Also wir können sagen, dass es drei Säulen dieser Umarmung gibt, okay? Also Modelle, Datensätze und Räume. Und vor allem verfügt es über eine eigene Bibliothek, wie Aufteilung von Transformer-Datensätzen, sodass wir verschiedene Codierungen sehr einfach handhaben können Okay, ein einfacher Weg. Okay. Lass uns zuerst mit dem Beispiel eines Symbols beginnen, okay? Hier können wir also nach der Aufgabe und sogar nach den verwendeten Bibliotheken filtern , auch auf der Grundlage von Datensätzen und Sprachen, natürlichen Sprachen und auf der Grundlage solcher Lizenzen. Okay. Also können wir leicht unser Rekordmodell herausfinden, okay? Lassen Sie mich zuerst mit einem einfachen Modell beginnen. Vielleicht können wir die Textklassifizierung richtig machen. Und hier werden viele Modelle für diesen Zweck aufgelistet. Okay. Ich entscheide mich nur zufällig für diesen. Aber wir können einfach die Details durchgehen , um zu verstehen , welches Modell für unsere eigenen Empfehlungen besser geeignet ist. Nehmen wir zum Beispiel an, einige Modelle werden anhand eines allgemein gebräuchlichen Textes trainiert, andere beziehen sich auf finanzielle Dinge, andere beziehen sich auf den elektronischen Handel, besser, Sie können das passende auswählen. Ich bin nur zu Demonstrationszwecken, ich nehme nur diesen. Okay? Also hier haben sie alle Details angegeben. Also, wenn Sie diese Transformatoren über Transformatoren verwenden möchten . Wie ich bereits sagte, ist Transformers eine sehr einfache Art, es zu verwenden, insbesondere die Pipeline-Funktion wird sehr nützlich sein. Ich versuche nur, das zu benutzen. Andernfalls, wenn Sie das Modell direkt laden möchten, können Sie dies auch tun. Okay. Aber Pipeline wird eine sehr einfache Art sein Google Colab zu verwenden. Du kannst es einfach ausführen Es ist positiv. Die 99-Prozent-Konferenz? Die ist negativ. Okay? Also ist es sehr einfach. Sie können einen beliebigen Text angeben. Okay? Es wird das klassifizieren. Okay? Vielleicht können wir etwas von positiven Dingen abschreiben, okay? Wir können also einfach diese Pipeline dieser Transformer-Bibliothek verwenden, nur um das Modell und die Aufgabe anzugeben , die wir für die Textra-Klassifizierung haben Das ist es. Okay. Dann können wir anfangen, dieses Modell zu verwenden. Okay? So einfach. Okay. Ebenso können wir es für jedes Modell für jeden Zweck tun. Ich habe schon etwas aufgelistet. Vielleicht können wir uns für diesen entscheiden, okay? Stimmungsanalyse. Deshalb bieten wir hier zusätzliche Klassifizierung an und spezifizieren das Modell In diesem Beispiel fragen wir nur als sentimentale Analyse, sentimentale Analyse, sentimentale Und dann geben wir diesen Text weiter und das macht er, und das macht er Also im Grunde verwendet es dieses Textklassifizierungsmodell, okay? Wir führen sentimentale Analysen durch. Und mithilfe einer Pipeline können wir auch die Null-SAT-Klassifizierung durchführen auch die Null-SAT-Klassifizierung Das heißt, ohne Kennzeichnung können wir die Eingabe kategorisieren, okay? Mit Hilfe von Pipeline nennen wir das einfach Zero-shot-Klassifikation Okay? Also wird es ein passendes Modell finden, okay? Und wir geben die Inputs. Wie Text ist, habe ich kürzlich einen neuen Laptop gekauft und er ist superschnell und leicht. Die Labels, die Technologie, die modischen Kräfte. Okay? Wir machen keine Etikettierung, okay? Wir haben nur die Eingabe und die Liste der Labels bereitgestellt. Und diese Nullschuss-Klassifizierung wird ihr Eigenschaftslabel finden, okay? Das ist Zero SAT. Wir geben keine Beispiele oder Kennzeichnungen, okay. Auf der Grundlage des Textes selbst, aufgrund der Bedeutung des Textes und der Bedeutung der Bezeichnungen wird es also aufgrund der Bedeutung möglich sein, oder klassifiziert zu werden. Hier bot sie also Technologie für Technologie. Der Wert liegt bei 97 Prozent für Sport, einem Prozent und bei Mode sind es null Prozent. Im Grunde ist es Technologie, oder? Es ist ein korrektes Profil. Ich habe kürzlich einen neuen Laptop gekauft und er ist superschnell und leicht. Es ist Technologie, oder? Es ist soweit, dass es dieses Facebook benutzt , aber Lodge LI und die Prognose-Nummer ist diese Okay. Nur um Zeit zu sparen, nehme ich von diesem Beispielcode. Andernfalls können wir das Modell selbst anstatt die Pipeline zu verwenden, wir können das Swig-Modell beeinflussen Aber um Zeit zu sparen, verwende ich diesen Weg. Hier geben wir diese Aufforderung, künstliche Intelligenz wird die Funktion ändern und wir bitten darum, Text mit einer maximalen Länge von 50 zu generieren. In diesem Fall müssen wir die Textgenerierung durchführen. Es wird ein geeignetes Modell auswählen. Es wählt dieses offene GPT-Modell von A Community , um das Feature zu ändern Das haben wir zur Verfügung gestellt. Hier heißt es, dass Ihnen die Möglichkeiten eröffnet , eine komplexere Person zu sein. Der Kontext wird das Merkmal verändern, indem er sich um alle Menschen kümmert , denn künstliche Intelligenz wird alles verändern. Wir werden ein menschliches Bewusstsein haben, was eine andere Art von Technologie ist. Etwas. Also im Grunde ist es in der Lage, Text zu generieren, okay. Also, was ich damit sagen will, ist, dass wir mit Hilfe dieses umarmen Fisches dieses umarmen Fisches eine Menge Zeit sparen können Wir müssen nur einen Transformator und eine Pipeline verwenden und einfach spezifizieren, was wir wollen Es wird automatisch das passende , äh, Modell finden. Selbst wenn Sie das Modell speziell spezifizieren, können wir diesen Transformator verwenden, sodass wir die Codierung auf einfache Weise durchführen können. Wir müssen nicht verstehen, wie jedes einzelne Modell funktioniert, oder? Auf diese Weise kann viel Zeit gespart werden, und wir können das Modell einfach auf einfache Weise ändern. Okay, die Codewartung wird einfach sein. Äh, dieser hier, Beantwortung der Frage, okay? Wir verstehen dieses Wort im Kontext und stellen Fragen. Wir haben gerade die Beantwortung dieser Frage erwähnt, okay, damit wir eine Antwort auf diese Frage bekommen können. Es benutzt digitalen Vogel, okay? Das Modell. Es gibt Antworten, New York und Paris G hat New York und Paris erwähnt, richtig? Also hat es derzeit diese Antwort gebraucht. Wir können es also für verschiedene Dinge tun. Bei der Erkennung benannter Entitäten werden wir erkennen, ob es sich um eine Person oder einen Ort handelt , solche Dinge, oder? Okay. Also geh einfach verschiedene Modelle durch, okay? Und Sie können es auf Ihrem lokalen Computer oder in Google Colab testen , oder Sie können sich einfach einige Beispiele aus diesen Bereichen ansehen Und wenn du gute Anwendungen erstellst, kannst du sie einfach hier posten, um deine Fähigkeiten unter Beweis zu stellen, okay? 13. Der Spielplatz TensorFlow erklärt: In diesem Video werde ich über TensorFlow Playground erzählen Tens Flow ist ein von Google bereitgestelltes Framework für maschinelles Lernen von Google bereitgestelltes Es ist ein sehr nützliches Framework für die Entwicklung von A-Anwendungen. Und der Spielplatz ist nur zum Lernen da, okay? Es ist ein webbasiertes Tool. Wir können es vom Browser aus verwenden, indem wir einfach playground.tensorflow.org eingeben Okay? Nachdem Sie das in die Adressleiste eingegeben haben, werden Sie diese Seite sehen. Es ist eine einzelne Seite. Hier erfahren Sie wie Sie Deep Learning anhand von Experimenten erlernen können. Zunächst werde ich erklären, welche Komponenten hier verfügbar sind. Also hier ist es für den Anfang und ich meine, das Laufen und Bestehen des Trainingsprozesses, okay? Und dieser Bereich ist dieser Bereich auf der linken Seite für Daten. Hier können wir die Daten aus verschiedenen Arten von Datensätzen auswählen aus verschiedenen Arten von Datensätzen z. B. kreisförmig und exklusiv oder gaußförmig Es gibt verschiedene Arten von Daten, die hier verfügbar sind. Wir können eine davon wählen. Und hier können wir das Verhältnis zwischen Trainingsdaten und Testdaten wählen . Wir können die Daten in Training und Test aufteilen. Und wenn Sie möchten, können wir Rauschen in die Daten einbringen. Wenn wir also Rauschen erzeugen, werden die Daten durch etwas Rauschen beschädigt. Okay. Und die Charge sagt auch, dass wir uns ändern können. Wenn wir auf Regenerieren klicken, wird der Trainingsprozess gestoppt Okay, und es werden verschiedene Anzeigen geladen. Äh, hier ist es zum Beispiel, das Netzwerk zurückzusetzen, okay Epoch, hier können wir das EPA nicht betreten. EPOC ist nichts anderes als eine Reihe von Schritten oder Iterationen Trainings. Ich meine, Trainingsschritte hier. Hier dient es nur zur Veranschaulichung. Wir werden nicht die Kontrolle haben, das Training zu beenden, indem wir den EPOC festlegen, okay? Aber beim eigentlichen Programmieren können wir das tun. Entweder wir können vorzeitig aufhören indem wir den Trainingsprozess beenden, wenn sich der Verlust für bestimmte aufeinanderfolgende Schritte nicht ändert , Epoche, okay? Aber dieser Lernzweck wird weitergehen. Wir müssen den Trainingsprozess manuell beenden, indem die Grenzwerte und die Verlustwerte ansehen. Okay. Lernrate, das ist die Geschwindigkeit, die das Lernen beschleunigt. Wenn wir es also langsam halten, dann meine ich einen niedrigen Wert, dann wird der Lernprozess langsam sein, aber die Stabilität wird gut sein. Aber wenn wir die Lernrate erhöhen, wird es schneller lernen. Aber dieses Modell wird instabil werden. Okay? Und die Aktivierungsfunktion wirklich viele verschiedene Arten gibt es wirklich viele verschiedene Arten von Aktivierungsfunktionen. Aktivierungsfunktionen steuern , wie das Modell mit den Gewichten umgeht. Gewichte sind wie interne Parameter. Die Gewichte werden je nach Training des letzten Parameters geändert , andere Dinge, okay? Das ist also das Kernkonzept neuronaler Netzwerke, oder? Hier können wir also sehen , dass das Training Werte hat. Okay. Sogar wir können es bearbeiten. Es wird Gewicht geben. Das ist Regularisierung, L eins, L zwei, so Jetzt können wir wählen. Und wir müssen diesen Wert wählen. Okay. Die Regularisierung dient also dazu, Überanpassungen zu vermeiden Überanpassung ist zum Beispiel, wenn wir sehr leistungsstarke Dinge wie eine große Anzahl von Neuronen oder viele versteckte Schichten wählen sehr leistungsstarke Dinge wie eine große Anzahl von , wenn wir das neuronale Netzwerk so einrichten, dass dieses neuronale Netzwerk die Trainingsdaten mehr als genug lernt Das heißt, es wird sich sehr auf die Trainingsdaten konzentrieren. Es wird nicht verallgemeinert werden. Okay? Wenn dieses Modell auf generalisierte Weise trainiert wird, dann wird es nur im Umgang mit unbekannten Daten effektiv sein im Umgang mit unbekannten Daten Wenn es spezifisch für die Trainingsdaten ist, wird es die Trainingsdaten erkennen, ich meine, es wird die Trainingsdaten effektiv vorhersagen oder verarbeiten, aber es wird nicht in der Lage sein, die neuen Daten zu Selbst wenn die Daten den Trainingsdaten sehr ähnlich sind, werden sie nicht richtig verarbeitet In diesem Fall müssen wir also eine Überanpassung vermeiden. Also dafür gibt es eine Art Regularisierung, nur um die Gewichtszunahme an bestimmten Stellen zu kontrollieren Gewichtszunahme an bestimmten Stellen zu Dafür wird diese Regularisierung also sehr nützlich sein. Und das ist ein Problem, egal ob es sich um eine Klassifikation oder eine Regression handelt, okay Wir können mit verschiedenen Parametern untersuchen und herausfinden wie das Modell funktioniert und wie das Ergebnis aussieht, wie viel Zeit es in Anspruch nimmt und wie die Gewichte berechnet werden Also hier geht es um Merkmale, wie Eigenschaften. Welche Eigenschaften möchten Sie in Eingabeeigenschaften einspeisen? Wie bei jedem neuronalen Netzwerk, dessen Merkmale aufgrund der Trainingsdaten wichtig sind, oder? Hier können wir festlegen, welche Art von Funktionen wir dem geben werden. Und hier, versteckte Schichten. Es ist Eingabeschicht, es ist Ausgabeschicht. Dazwischen können wir versteckte Schichten haben. Auch ohne versteckte Ebenen kann es funktionieren, aber das Hinzufügen von versteckten Ebenen verbessert die Leistungseffizienz, okay? Und jede versteckte Schicht kann ihre eigene Anzahl von Neuronen haben. Wir können die Anzahl der Neuronen erhöhen oder verringern, okay? In jeder Schicht. Hier können wir vier Neuronen behalten. Hier können wir zwei Neuronen behalten. Und dann können wir das Muster finden, wie es funktioniert. All diese Dinge werden dir beibringen können , wie es funktioniert. Wenn wir nur lernen, können wir es in unsere eigentliche Programmierung implementieren , sodass wir viel Zeit sparen können. Okay. Andernfalls, wenn wir praktisch alles tun, was bedeutet, wird es viel Zeit in Anspruch nehmen, oder? Also hier ist es eine Art Simulation. Hier können wir wissen, wie sich das Modell verhalten wird. Auf dieser Grundlage können wir unsere Entwicklung planen. Okay? Also diese Perspektive, dieser Spielplatz mit zig Flow-Spielplätzen , wird nützlicher sein. Okay? In diesem Sinne nützlicher ist es, dass wir viele Übungen machen müssen. Wir müssen die Lernrate ändern. Lerngeschwindigkeit, wie gesagt, wenn wir die Lernrate weiter erhöhen, wird das die Stabilität beeinflussen, okay? Manchmal gelingt nicht einmal die Konvergenz. Okay? Regularisierung, wie gesagt, wenn wir die versteckten Schichten vergrößern, müssen wir die Verordnung anwenden Okay. Also immer wird es einen Kompromiss geben. Also müssen wir zuerst den passenden besten Punkt finden. Wir verwenden es in unserer Codierung, okay? Zu diesem Zweck müssen wir also verschiedene Dinge erforschen. Wir mussten auswählen, ich meine, den Datensatz ändern und dann dasselbe mit verschiedenen Datensätzen machen Also hier hat die Farbcodierung auch eine gewisse Bedeutung. Orange bedeutet negativ, okay? Blau bedeutet positiv, okay, generell. Aber abgesehen davon wird es auch für verschiedene Sitzplätze verwendet, für verschiedene Klassen, okay? Also hier, wie gesagt, hier können wir sowohl das Gewicht sehen als auch das Gewicht ändern. Bei dieser Ausgabe handelt es sich also sowohl um Testglas als auch um Trainingsglas. Tesla ist also wie Verlust ist Irrtum. Okay. Unser Ziel ist es, den letzten auf Null zu reduzieren. Das heißt, es liegt kein Fehler vor. Aber im Idealfall ist es etwas schwierig, Null zu erreichen. Okay? Falls du vorhast, eine Codierung zu schreiben. In diesem Fall werden wir beim Anhalten des Zuges natürlich denken, dass wir, sobald wir die letzte Null erreicht haben, das Training so beenden können , wie wir denken werden. Aber in einigen Fällen, in den meisten Fällen, ist es etwas schwierig, Null zu erreichen. Entweder wir können es früh einschätzen und es beenden, wir können es verwenden. Das heißt, wir müssen die letzten Werte für jede Epoche kontinuierlich überwachen Und wenn es sich für einige aufeinanderfolgende Epochen nicht ändert, können wir das Training beenden Sonst macht es keinen Sinn , das Training fortzusetzen. Okay. Und andernfalls, wenn du glaubst, dass es Null erreichen wird, kannst du vielleicht auch diese Bedingung verwenden. Aber anstatt exakt Null zu setzen, können wir vielleicht einen Mindestwert angeben, okay? Wir können es ausführen und sehen , wie sich die Klasse verändert, okay? Hier kannst du die Epoche sehen. Es läuft ununterbrochen. Wie ich bereits sagte, es wird nicht aufhören. Okay? Es wird weiterlaufen. Selbst wenn es die Null erreicht, hört es nicht auf, okay? Wir müssen die Grenze sehen, wie sie sich verhält, denn wenn wir Ni einführen, was passiert dann Schön in dem Sinne hier, das Blau ist hier auch das Rot. Die Orangen sind da, das ist wie eine mühsame Aufgabe Wenn wir regenerieren wollen, können wir die gesamte Drehung unterbrechen und Ihren Datensatz laden Wir können das einfache Gaußsche Verfahren verwenden. Wenn das Geräusch hoch ist, wird das Geräusch reduziert. In diesem Fall wird es meiner Meinung nach meistens fast Null plus sehr leicht wie erwartet erreichen , zuletzt wird es sehr schnell Null, es ist in der Lage, klar zu unterscheiden. Es hat Null erreicht, okay? Es gibt also keine Empfehlung für das weitere Laufen. Aus den Experimenten können wir ersehen, wie viele Epochen es dauern wird. Darauf aufbauend können wir den Code schreiben. Okay. Diese Perspektive wird sehr nützlich sein. Und noch eine Perspektive für Anfänger, einfach um zu wissen, was Lernrate ist, was Aktivierung ist, was reguläre Lösung ist. Zu diesem Zweck können wir das auch verwenden, okay. Und wenn Sie in KI fortgeschritten sind, können Sie vielleicht untersuchen, wie sich die Gewichte ändern. Wenn du das Gewicht manuell änderst, wie es sich verhält, dann kannst du lernen, okay? Also ist es für alle Arten von Menschen. Also, basierend auf unseren Fähigkeiten, aktuellen Kenntnisstand, können wir das nutzen. Es ist also ein wirklich nützliches Tool. Ich würde empfehlen, es zu üben und mehr Zeit zu verbringen. Aber du musst immer wieder die Werte notieren, welche Werte gerade ausgewählt sind, warum es so größer ist. Wenn du nur zufällig etwas änderst, bedeutet das nichts. 14. RAG (Retrieval-Augmented Generation) Tutorial: In diesem Video erkläre ich das Retrieval Augmented Generation Ist die Technik, bei der Abruf und Generierung für eine bessere KI kombiniert Abruf und Generierung für eine bessere In diesem Video werden wir uns diesen Themen befassen. Was ist Rag? Warum ist Rag wichtig? Wie funktioniert Rag? Teilkomponenten, Anwendungsbereiche, Vor- und Nachteile Und dann eine einfache Demo. Also zuallererst, was ist Rag? Rag ist ein Hybrid-A-Modell , das abrufbasierte Methoden kombiniert und relevante Informationen aus Ihrer Wissensquelle mit generativen Methoden abruft Ihrer Wissensquelle mit generativen Das bedeutet, neuen Text zu erstellen. Im Grunde gibt es also zwei Dinge. Das eine ist das traditionelle Abrufen von Dingen wie das Durchsuchen eines Textes aus Ihrer Datenbank oder aus einer solchen PDF-Datei, oder? Wir werden also eine Wissensdatenbank haben. Von dort aus können wir die Suche durchführen, um Datensatzinformationen zu erhalten. Okay? Das ist das Abrufen relevanter Informationen aus einer Wissensquelle. Das ist Abruf Eine andere ist Generation. Generation, das ist heutzutage eine sehr wichtige Sache. Sie haben vielleicht von dem Wort KI generieren gehört , oder? Diese Chatbots wie Char GBT und Deutschland haben also die Fähigkeit, neue Inhalte zu generieren Sie werden in der Lage sein, neue Artikel, neue Blogbeiträge und sogar neue Bilder zu erstellen In diesem Fall wird es als Multimodel bezeichnet. Okay, intern verwendet es ein großes Sprachmodell wie GPT Four Im Fall von GPT wird das GPT-Vier-Modell verwendet. Diese LLMs sind mächtig , wenn es darum geht, Dinge zu generieren, aber sie haben einige Einschränkungen Im Fall von Rag kombiniert es sowohl die Fähigkeit des Abrufs als auch der Generierung Das ist der Grundgedanke, wenn es darum die Leistungsfähigkeit von Abruf und Generierung zu kombinieren Die Kernidee besteht darin, Sprachmodelle indem sie ihre Antworten auf externes Wissen Okay? Also das ist so etwas wie gelbe Klumpen mit Hilfe externem Wissen ausfindig zu machen, okay? Also, warum ist Lappen wichtig? Die traditionellen Modelle, A-Modelle , weisen nur wenige Mängel auf. Einer davon ist der begrenzte Wissensabbau. Ein anderes sind Halish Nations. Eingeschränkter Wissensabbau in diesem Sinne. Tatsächlich verwendet das HarGBT, wie gesagt, intern das GPT-Vier-Modell Dieses GPT-Vier-Modell ist ein vorab trainiertes Modell. Das heißt, es wurde mit vielen Daten trainiert. Im Fall dieser LLMs werden sie also mit riesigen Datenmengen trainiert Mit Hilfe von viel Rechenleistung wurden sie trainiert In diesem Fall sollten einige Termine gekürzt werden. Nehmen wir zum Beispiel an, sie haben es vor zwei Monaten trainiert, dann wird es nur Daten bis zu diesem Zeitraum haben. Okay, es wird also nicht die neuesten Informationen haben. Okay? Das ist also ein Hauptproblem bei LLMs Und ein anderes sind Halluzinationen. Halluzinationen sind wie die Natur von LLMs. Sie generierten früher falsche oder unsinnige Informationen Wenn Sie HAT GPT häufig verwenden, sollten Sie darüber Bescheid wissen Manchmal gab es auch sehr irrelevante Antworten auf einfache Fragen Es liegt an Halluzinationen. Okay. Abgesehen davon gibt es viele Dinge aufgrund falscher Informationen den Trainingsdaten, es kann halluzinieren Okay? Es gibt also zwei Probleme. Zum einen ist begrenztes Wissen abgeschnitten. Das heißt, es gibt keine neuesten Informationen und dann Halluzinationen. Okay. Also beide Dinge sind wichtig, denn für die Verwendung von LLM ist es wichtig, die neuesten Informationen zu haben, oder? In ähnlicher Weise wird das gesamte System mit Problemen konfrontiert sein, wenn diese Informationen nicht zuverlässig sind, oder? Die Probleme sind sehr wichtig. Also müssen wir eine bessere Lösung finden, oder? Hier spielt RAG also eine wichtige Rolle. Rag hilft beim Zugriff auf aktuelle Informationen und versucht, Halluzinationen zu vermeiden Okay? Wie funktioniert RAG? Der schrittweise Prozess ist die Eingabeabfrage. Also stellst du zuerst eine Frage, oder? Und dann Abrufen. Das Modell ruft relevante Dokumente aus einer Wissensquelle ab Und dann Generierung. Das Modell generiert eine Antwort auf der Grundlage der Abrufinformationen Also oder die Benutzereingabeabfrage. Zunächst ruft das Abrufsystem relevante Dokumente aus einer Wissensquelle oder externem Wissen Sobald die Kontextinformationen abgerufen wurden, werden diese Kontextinformationen zusammen mit der Eingabeabfrage an die LLMs gesendet , um die Ausgabe abzurufen Hier ist es also der gesamte Arbeitsablauf von Rag. Aber es gibt zwei Dinge. Eine ist eine Zeitaufgabe, eine andere ist die regelmäßige Nutzung. Eine Zeitaufgabe ist so, als müssten wir die Dokumente laden, oder? Nehmen wir also an, dass Sie eine Organisation innerhalb Ihrer Abteilung leiten Möglicherweise müssen Sie davon ausgehen, dass Sie fünf Abteilungen haben. Okay? Jede Abteilung hat ihre eigenen Richtlinien und einige Details über die Abteilungen, richtig? Angenommen, jemand stellt einige Fragen zu Ihrem Unternehmen. Er kann den LLM nicht sofort fragen. LLM wird diese Daten nicht haben , oder? Sie werden diese Daten haben. Aber wir können nicht alle Daten an die LLMs senden. Okay? Nehmen wir in diesem Beispiel an, wenn jede Abteilung über eine PDF-Datei verfügt, können wir nicht fünf PDF-Dateien zusammen mit der Benutzeranfrage an das LLM senden , okay? Aufgrund dieser Beschränkung des Kontextfensters. Jedes LLM hat ein bestimmtes Kontextlimit. Wir können keine große Datenmenge senden. Okay? In diesem Fall gibt es ein Limit, wir müssen nur das relevante Dokument zusammen mit der Benutzeranfrage senden . Zu diesem Zweck müssen wir zunächst alle Dokumente in einer Vektordatenbank speichern. Okay? Es gibt verschiedene Herangehensweisen. Ich spreche nur über den gemeinsamen Ansatz, okay? Zuallererst müssen wir die Dokumente in einer Vektordatenbank speichern . Vektordatenbank, die Suche wird sehr schneller gehen , weil der Grund dafür ist, dass die Daten in einem numerischen Format gespeichert werden , okay? Es wird also den Textinhalt in unseren Bildinhalt in die entsprechende Zahl umwandeln . Okay. Es werden nur die Zahlen, Zahlen und der dazugehörige Text gespeichert. Die Suche wird jedoch auf der Grundlage der Zahlen erfolgen. Also im Grunde wird es sehr schnell gehen, okay? Und es wird wirksam sein. In diesem Sinne wirksam, werde ich erklären. Okay. Also zuallererst ist es sehr schnell, okay? Also mussten wir die Dokumente in eingebettete Dokumente umwandeln , wie gesagt, es ist eine numerische Darstellung dieses Inhalts Dafür mussten wir etwas LLam zum Einbetten verwenden. Dafür, äh, wird der Talam anders sein. Sie werden Einbettungsdienste anbieten. Wir müssen die Einbettungsdienste nutzen und dann die Dokumente in gleichwertige Einbettungen konvertieren und in einer Vektordatenbank speichern Es gibt verschiedene Vektordatenbanken wie Chroma TV, Facebooks Pies und Und im Fall von Chroma TV können wir es lokal verwenden. Es ist Open Source. Es gibt verschiedene Vektor-Datenbanken. Wir müssen die Daten in einer Vektordatenbank speichern. Es ist ein einmaliger Prozess. Ein Mal, bevor wir unser System in Betrieb nehmen , müssen wir dies zunächst müssen wir Wie gesagt, diese Vektordatenbank, diese Suche wird schneller sein, und ein weiterer Vorteil ist, dass es sich um eine semantische Suche handelt Okay. Es werden also nicht nur Keywords gewechselt, sondern auch die semantische Suche unterstützt Dass die Effektivität dieser semantischen Suche davon abhängt, welche Art von LLM wir für die Erstellung der Einbettungen verwenden Das ist ein ganz anderes Thema. Wie beim Rag im Fall von Rag ist der gesamte Stretch sehr einfach LLM weist einige Mängel auf. Wir werden diese Probleme mit Hilfe externer Daten Dafür benutzen wir also diesen Lappen. Also ergänzen wir nur den generativen Prozess mit dem Retrievalschritt Das ist der eigentliche Schlüssel. Das ist ein Lappen. Okay. Das ist sehr einfach. Aber im Fall von Implementierungen und anderen Dingen, die auf den Anforderungen und der Nutzung basieren, gibt es da oben verschiedene Dinge, okay? Aber der Umfang dieses Videos besteht darin, die Grundlagen zu vermitteln. Ich spreche in diesem Video nur die Anfänge an. Ich halte es einfach sehr einfach, okay? Also werden die Dokumente Einbettungen umgewandelt und in einer Vektordatenbank gespeichert Das ist ein Zeitschritt, okay? Und dann kommen wir zum eigentlichen täglichen Prozess. Benutzer also eine Frage stellt, diese Abfrage auch in eine Verkörperung umgewandelt , die als Abfrageeinbettung bezeichnet wird Okay, Kory-Vektor. Also der gesuchte Abfrage-Vektor wird verwendet, um den relevanten Eintrag in der Vektor-Datenbank zu suchen , okay Nehmen wir zum Beispiel an, wir durchsuchen in unserem Beispiel fünf Abteilungen. Wenn Sie also fragen, ob der Benutzer eine Frage zu einer bestimmten Abteilung stellt, beispielsweise, fragt er nach der zweiten Abteilung und diese Abfrage wird in diese Einbettungen umgewandelt , diese Korey-Einbettung wird anhand dieser Einbettungen von Vektordatenbankdokumenten durchsucht, es ist also so, als würde man die Daten finden, die sich auf die zweite Abteilung beziehen er nach der zweiten Abteilung und Abfrage wird in diese Einbettungen umgewandelt , diese Korey-Einbettung wird anhand dieser Einbettungen von Vektordatenbankdokumenten durchsucht, Korey-Einbettung wird anhand dieser Einbettungen es ist also so, als würde man die Daten finden, es ist also so, als würde man die Daten finden . Das ist also die Natur dieser Vektorsuche. Okay. Hier wird es sowohl schnell sein als auch semantische Suchen durchführen. Das ist hier der Schlüssel. Nachdem Sie also einmal die relevanten Informationen erhalten haben, wird das jetzt als Kontext-Chunks bezeichnet Das ist wie bei der Erweiterung, sie wird zusammen mit der Anfrage hinzugefügt und dann an das LLam gesendet, um die Antwort zu erhalten LLam gesendet, um die Antwort Jetzt wird es wie eine verwandte Antwort sein. Okay. Der gesamte Prozess, einmalige Prozesse, Speichern der externen Daten der Dokumente als Einbettung mit LL-Einbettung. Okay? Und der eigentliche Prozess besteht darin, die Benutzerabfrage in eine Einbettung umzuwandeln und dann eine Vektorsuche durchzuführen Es gibt verschiedene prozentuale Ähnlichkeiten zwischen diesen Ansätzen Okay. Auf dieser Grundlage müssen wir also die relevanten Blöcke finden und die Eingabeaufforderung mit diesen Kontext-Blöcken erweitern , okay? Die Aufforderung sieht so aus, als müssten wir die Abfrage und die Blöcke angeben und dann zusätzliche Informationen bereitstellen , z. B. die Kontextinformationen verwenden, um die Antwort auf diese Abfrage zu Abfrage und die Blöcke angeben und dann zusätzliche Informationen bereitstellen, z. B. die Kontextinformationen verwenden, um die Antwort auf diese Abfrage zu geben. Auf diese Weise stellen wir auch eine Systemaufforderung zur Verfügung, okay. Endlich werden wir also die entsprechende Antwort erhalten. Das ist das Kernkonzept von Rag. Also, wenn Sie dieses RAG-Ding nicht benutzen, dann sind wir vielleicht irrelevant verantwortlich. Dieser Prozess gibt dem LLM den Boden. Das ist eine Sache. Und wie ich bereits sagte, wird es nützlich sein, um die neuesten Informationen zu erhalten. Das LLM verfügt möglicherweise nicht über die neuesten Informationen, aber der Kontext-Chunk wird über die neuesten Informationen verfügen Es wird diese Informationen verwenden . Die Komponenten sind also eine Wissensquelle für den Ager Retriever Generator Der Retriever durchsucht also eine große Wissensbasis nach relevanten Informationen Es gibt verschiedene Retriever, die dort sind. Generator. Es ist wie das GPT-Modell. Es ist ein normaler LL Lum und die Wissensquelle. Damit ein Retriever die Daten abrufen kann, müssen wir also die richtigen Daten haben Für diese Daten, im Fall einer Vektordatenbank, müssen wir also im Fall einer Vektordatenbank, die Details richtig speichern Dafür müssen wir also eine Wissensquelle verwenden. Es kann so sein, wie ich bereits sagte. Es kann sich um beliebige Dokumentsymbole handeln, oder es kann sich um einen Crawler handeln, der die neuesten Informationen aus verschiedenen Webquellen crawlt , oder um jede Art von Datenbankanwendungen, die Rag sind Es gibt also viele Anwendungen, okay? Eine davon liegt auf der Hand : die Beantwortung um genaue Antworten auf die Anfragen der Benutzer zu erhalten, und Chatbds, um fundiertere Informationen und von Fragen, um genaue Antworten auf die Anfragen der Benutzer zu erhalten, und Chatbds, um fundiertere Informationen und den Kontext unserer Konversationen zu erhalten, da wir die Kontextinformationen senden können, sodass sie auf der Grundlage der Kontextinformationen und der Erstellung von Inhalten, iterierenden Artikeln, Zusammenfassungen oder Berichten ordnungsgemäß funktionieren können auf der Grundlage der Kontextinformationen und der Erstellung von Inhalten, iterierenden Artikeln, Zusammenfassungen oder Berichten ordnungsgemäß funktionieren der Grundlage der Kontextinformationen und der Erstellung von Inhalten, iterierenden Artikeln, Zusammenfassungen Wir müssen externe Daten bereitstellen , damit LLM die Inhalte mit mehr Informationen erstellen kann erstellen Okay? Also Kundensupport , wenn der Benutzer irgendwelche Fragen stellt, stellt der Kunde die Fragen, und das System wird mit Hilfe dieses externen Wissens in der Lage sein, die richtige Antwort zu geben . Wenn zum Beispiel ein Krankenhaus ein Kundenbetreuungssystem betreibt, kann der Benutzer dem System alle Fragen in natürlicher Sprache stellen, und das Rag-System kann den Inhalt durchsuchen, die relevanten Inhalte aus der Wissensquelle abrufen und dann auf die Antwort antworten. Also im Grunde kann ich das auf zwei Arten sagen. eine ist wie das vorherige Retrieval-System, in diesem Fall dieses Krankenhaus-Kundenbetreuungssystems Bisher musste der Vertreter im Krankenhaus , wenn jemand Fragen stellt, der Vertreter im Krankenhaus einige Do-Dateien oder Datenbanken durchgehen Er muss die Stichwortsuche durchführen und dann die Antwort geben, richtig? Das ist also der traditionelle Weg, okay? In diesem Fall kann er die Antwort nur erhalten , wenn die Keywords übereinstimmen. Das ist die Einschränkung. Er kann die natürliche Sprache nicht benutzen. Er kann nicht jeden Tag einfache Sprachen benutzen. Er muss die Schlüsselwörter richtig verwenden. Im Falle von LLM können wir natürliche Sprache verwenden. Aber das Problem ist, dass es die Daten nicht haben wird. Um von beiden Dingen zu profitieren, ist das der Name Rag. Wir erweitern den generativen Prozess mit Hilfe des Abrufs dieser Inhalte Erweiterung der Generierung durch Abruf, erweiterte Generierung Abruf Vorteile und Einschränkungen. Vorteile, Sir, natürlich können wir die neuesten Informationen erhalten, Echtzeit oder aktuelle Informationen, reduziert Halluzinationen Es kombiniert das Beste aus Abrufen und Generieren. Das sind also offensichtliche Vorteile von Rag. Einschränkungen. Auch hier kommt es auf die Qualität der Wissensquelle an. Selbst wenn Sie in der Lage sind, die externe Wissensquelle zu nutzen , wenn die Qualität nicht gut ist , werden die Probleme weiterhin bestehen. Es hängt also von der Qualität der Wissensquelle ab und ist rechenintensiv. Die Konvertierung der Dokumente in eine Vektordatenbank erfordert viel Rechenleistung Und wenn Sie eine API verwenden, wird die API-Nutzung etwas kostspielig sein nicht dem generativen Niveau dieser Kosten entsprechen, aber wir müssen trotzdem dafür bezahlen. Okay? Also rechenintensiv. Und im Vergleich zu anderen Ansätzen sind hier nur wenige kurze Lernmöglichkeiten anderer Dinge, die für den Datensatz für das Training empfohlen werden, vergleichsweise hoch Wir müssen eine beträchtliche Menge an Daten in den externen Daten haben. Lassen Sie mich Ihnen eine einfache Demo zeigen. Okay. Also normalerweise gibt es zwei Herangehensweisen, okay. Einer ist zum Beispiel die Verwendung der kostenlosen Open-Source-Modelle. Okay? Wir haben eine Menge Dinge. Okay. Sie können im Wandertempo oder in Cagle suchen Wir können zum Beispiel viele Modelle zum Einbetten bekommen. Okay. Aber meiner Erfahrung nach, wenn wir die Einbettungsmodelle verwenden von großen Organisationen wie Open AAA bereitgestellt werden, dann wird die Leistung gut sein und im Grunde wird sie besser sein, okay Aber wir müssen für sie bezahlen, okay? Aber das ist eine Sache. In diesem Beispiel zeige ich ein einfaches Beispiel mit der Puggin-Phase Aber im tatsächlichen Gebrauch habe ich hauptsächlich A APA geöffnet Okay. Also hier, die Codierung, zuerst wir die Plattenbibliotheken Also dieser Code, wir verwenden jede Kette. Lang Chin ist ein Framework oder eine Bibliothek für Entwicklungen. Es wird einfach sein, verschiedene Modelle und verschiedene Arten von Vektordatenbanken zu handhaben . Uh, die Kodierung wird ein Symbol sein, okay? Aber die Wartung, meiner Erfahrung nach, besteht darin, ständig ihre Bibliotheken zu ändern , Dinge, okay? Aber der offensichtliche Grund ist dass sich A sehr schnell entwickelt, oder? Also, um das zu verstehen, aktualisieren sie ständig ihre Bibliotheken, okay? Ähm, und außerdem, wenn Sie die Kodierung einzeln verwenden, wird es einfach sein, das Konzept zu verstehen. Aber im Fall von Lang Chain nehmen Sie an, wenn Sie Leistung entwickeln , wenn Sie viel Zeit sparen wollen, dann können Sie sich für die Lang-Kette entscheiden. Aber zu Lernzwecken würde ich empfehlen, alles separat zu machen, ohne irgendein Framework oder Bibliotheken zu verwenden. Okay. Aber als Anfänger, um einen Überblick zu geben, verwende ich hier Lang Chain, okay, damit du den gesamten Ablauf leicht verstehen kannst ohne von jeder einzelnen Codierung abgelenkt zu werden , okay Hier sind wir insgesamt so, als würden wir alle Datensatzbibliotheken eingeben Okay? Also die ersten Schritte, wir sind zwei, wie ich im Diagramm erklärt habe. Äh, es gibt zwei Dinge. Einer ist ein Zeitschritt, und eine andere Sache ist der eigentliche Ablauf wie das Abrufen und Erweitern der Eingabeaufforderungen und dann die Generierung Also das sind drei Schritte. Also ein Schritt ist der erste Schritt ein Zeitschritt, dann wieder drei Schritte für jede Abfrage, richtig? Das Erste ist also, wir bereiten die Dokumente vor. Also hier ist es sehr einfach. Also nur zur Erklärung. Ansonsten würde ich darum bitten, dass jedes Dokument etwa zwei, drei Seiten lang ist . Okay? Hier hilft Vitamin C also, das Immunsystem zu stärken, Sport zu treiben, die geistige und körperliche Gesundheit zu verbessern. Wenn Sie genug Wasser trinken, bleiben Sie hydratisiert und verbessern die Konzentration Okay? Es ist eine Frage und Ändern ist ein wichtiges Konzept in einer RAG, okay? Also müssen wir ändern, das heißt, das Dokument in verschiedene Abschnitte aufzuteilen , damit es in den Kontextdrucker der LLL passt in den Kontextdrucker der LLL Dafür müssen wir also auch für Überlappungen sorgen. Ich möchte hier also nicht alle Details angeben , damit wir uns quasi voll und ganz auf das Wesentliche konzentrieren können , wir bereiten die Dokumente vor und ändern das, okay? Und dann das Einbetten, das Erstellen der Einbettungen und das Speichern im Feuer Okay, bessere Datenbank. Okay. Für die Erstellung der Einbettung müssen wir also das Einbettungsmodell verwenden, das wir verwenden, Umarmung der Basiseinbettung Hugging Wise zu verwenden, müssen wir also die Hugging müssen wir Okay? Also ich habe das Umarming We APA schon geladen, ich meine, exportiert in den Norman Nehmen wir an, wenn Sie diesen Code verwenden wollen, stelle ich sicher, dass Sie die Umarmungsphase geladen haben, Sie müssen also die Details aus den Zugriffstoken von hier, der Umarmungsphase, abrufen die Details aus den Zugriffstoken von hier Und dann musst du es im Moment laden. Dann kannst du diesen Code verwenden. Okay? Also bereiten wir zuerst die Dokumente vor, auf, ich meine, teilen sie auf und konvertieren dann den Teil in eine Einbettung und speichern dann die Einbettungen in der Vektordatenbank der Vektordatenbank Okay? Das ist ein einmaliges Einrichten. Und dann die eigentlichen Charts dafür verwenden wir LL Lum, okay? Und als ob wir das Y-Recht vergrößern würden. Indem wir diese Aufforderung geben, diese Aufforderung vorbereiten. Wir verwenden diese Eingabeaufforderungsvorlage, Sie verwenden im Grunde genommen bitten wir das LLAM, diesen Kontext für die Beantwortung dieser Frage zu verwenden Und es muss die Antwort in diesem Format geben. Das ist der Kontext. Das ist die Frage. Du musst die Antwort so geben, wie wir sie fragen, oder? Das ist sehr wichtig, weil es sonst Antworten in einem anderen Format geben wird. Aber ich bereite das Beispiel vor. Ich habe dieses Format nicht zum ersten Mal angegeben, daher hat es sich anders verhalten. Um das Beispiel zu nennen, ähm, ich bin gerade mit dieser Vorlage angekommen. Okay? Jetzt erstellen wir also die Lag-Kette. Und hier ist das eine Benutzerabfrage. Wie wirkt sich Bewegung auf die Gesundheit aus, okay? Sobald Sie diese Kette ausgeführt haben, sollte sie die Antwort geben. Wir drucken die Antwort aus. Okay? Also hier sind drei Dinge da, richtig? Also lasst uns sehen, was passiert. Also führe ich dieses Skript aus. Nachdem ich das ausgeführt hatte, gab es die Antwort OH verbessert sowohl die geistigen als auch die körperlichen Fähigkeiten. Auf die Frage gab es die richtige Antwort. Abgesehen von Männern gab es auch eine Erklärung. 15. Verwendung von KI für digitales Marketing: Jeder. In diesem Video werde ich etwas über digitales Marketing mit künstlicher Intelligenz erklären etwas über digitales Marketing , okay? Hier werde ich es mit Chant GPT, Gemini, Deep Seek und Qn erklären Gemini, Deep Seek und Diese Art von berühmten LLMs, große Sprachmodelle. Okay? Meistens können wir hier bestimmte Funktionen frei nutzen, okay? Abgesehen von diesen Dingen haben wir auch viele spezielle Tools da, Artikel zu schreiben, können wir Jasper Punkt A verwenden. Und die Kopie von EA hat eine Menge Funktionen Aber ich werde diesen Weg nicht einschlagen. So kann jeder mit Hilfe der frei verfügbaren gängigen KI-Tools ganz einfach damit beginnen, digitales Marketing zu nutzen . Okay. Also hier können wir zunächst beginnen, HAGPT nach digitalem Marketing mit KI zu fragen damit beginnen, HAGPT nach digitalem Marketing mit KI zu fragen, es gibt viele Informationen Auf diese Weise können wir einfach Brand Storming mit CHAPT durchführen , um viele Informationen zu erhalten Hier wurden verschiedene Dinge aufgelistet. Wir können es auf diese Weise durchziehen. Okay. Eine wichtige Sache ist, anstatt den Text hier einzugeben, können Sie vielleicht diesen Sprachmodus verwenden, sodass wir ununterbrochen sprechen können und der Hut GPT per Spracheingabe antwortet Sie können einfach die mobile App herunterladen und einfach mit dem GPT mit dem Hut sprechen Und am Ende des Vortrags können wir die Transkription und auch den Text durchgehen Transkription und auch den Text durchgehen Das wird sehr nützlich sein. Hier bin ich nur zu Demonstrationszwecken, ich tippe nur den Text hier ein und sehe mir diese Dinge an, okay? Also in der ChargBD die erste Startanleihe. Sie können einfach mit CharPT sprechen . Denken Sie immer daran , dass diese Arten von LLMs, har GBT, Yemeni, Deep C, Cuban, all diese LLMs nicht zuverlässig sind, also müssen Sie sehr vorsichtig damit Sie können es also einfach für irgendeine Art von Arbeit verwenden, aber verlassen Sie sich nicht vollständig auf sie und verwenden Sie diese Ausgabe nicht als endgültige Sache Überprüfe diese Dinge manuell, okay? Lass mich erklären, wie man es effektiv einsetzt, okay? Es ist wahr, dass all diese LLMs wirklich mächtig sind. Sie können Artikel schreiben, sie können Bilder erstellen, sie können Videos erstellen und sie können alle Arten von Formatänderungen vornehmen, und sie können viele Berechnungen durchführen und sie können Code erstellen. Viele Dinge, die für digitales Marketing nützlich sind , aber nicht zuverlässig sind, die wir uns immer erinnern müssen, okay? Weil sie Halluzination unterliegen und Vorurteile ebenfalls vorhanden sind Es gibt viele Dinge, okay? Also, bevor wir anfangen, diese Art von LLMs für echte Geschäfte zu verwenden , müssen wir zuerst diese Art von Einschränkungen verstehen , okay? Wir müssen also auch wissen, wie wir mit ihnen umgehen können. einem gewissen Grad können wir diese LLMs so begründen, dass zu einem gewissen Grad können wir diese LLMs so begründen, dass sie ein gewisses Maß an Zuverlässigkeit bieten, wir können sie zuverlässig machen Okay? Also lass uns einfach durchgehen, wie man solche Sachen macht , okay? Also fang zuerst mit Brand Storming an. Ich werde dir eine Menge Dinge geben. Und wir müssen die schnellen technischen Tipps anwenden, okay? Wir müssen klare und präzise Fragen stellen , und das sollte klar sein Wir sollten den Kontext angeben, und wir müssen so etwas wie ein paar Shot Prompting verwenden , einige Beispiele nennen, und wir müssen die Kette bis zum Ende verwenden, wenn wir das CAGBT bitten sollen, die Verarbeitung Schritt für Schritt durchzuführen, solche CAGBT bitten sollen, die Verarbeitung Schritt für Schritt durchzuführen, Okay. Das sind also die grundlegenden Dinge, okay? Ähm, sobald Sie mit den Prompt-Engineering-Dingen vertraut sind und die Grenzen von CharPT oder anderen LLMs kennen, dann ist es besser, dies für digitales Marketing zu verwenden Es ist wirklich sehr, sehr nützlich, okay? Also können wir zuerst mit der Erstellung von, äh, Artikeln, Blogbeiträgen beginnen . Das ist der erste Punkt im digitalen Marketing-Funnel, oder? Im Moment verkaufe ich Kurs für künstliche Intelligenz für Anfänger Ich habe vor, dafür zu werben, oder? In diesem Fall bitte ich HRBT nur darum, einen Blockpost vorzuschlagen , um für meinen A-Kurs zu werben, okay? Ich gebe uns nur ein einfaches Beispiel, aber Sie müssen die Aufforderungsfähigkeiten richtig einsetzen Okay, du musst den ganzen Kontext und klare Informationen und alles angeben den ganzen Kontext und klare Informationen und alles Okay. Aber hier spreche ich schon mit HarGBT Ich habe viele Dinge im Speicher gespeichert, und im Kontext gibt es auch einige Informationen So wird es in der Lage sein, eine angemessene Antwort zu geben. Es schlägt also nur einige gute Artikeltitel vor, oder? Sie haben den Titel und einige Vorschläge zur Verwendung bereitgestellt , okay? Also sind sie wirklich relevant für meinen Kurs, okay? Okay. Und dann können wir auch darum bitten, eine echte Black Post zu erstellen, okay? Vielleicht kannst du dich also bitten, schwarze Post für Nummer eins Nummer zwei zu erstellen , du kannst fragen, oder du kannst einfach, wenn du diesen erstellen willst . Okay, lass mich das fragen, richtig? Schwarzer Beitrag für den Titel. Wir müssen eine Reihe von Charakteren oder irgendwelche Richtlinien bereitstellen , die sich an Anfänger, Fortgeschrittene oder Laien richten . So etwas müssen wir geben, okay? Hier kannst du Befehle geben wie diesen Abschnitt ändern, diesen Abschnitt ändern und diese Wörter so ersetzen, du kannst hier Befehle geben. Es ist wie kollaboratives Zeug. Diese Funktion wird sehr nützlich sein, um Artikel und E-Books zu schreiben, okay Für digitales Marketing ist die Veröffentlichung von E-Books also auch eine Möglichkeit, ist die Veröffentlichung von E-Books also auch effektives Marketing zu betreiben. Dafür können wir HagbTGI DC verwenden. Hier, sagst du, lass mich wissen, ob du Wochen oder Ergänzungen magst Wochen oder Ergänzungen magst Du kannst sagen, dass du diesen Abschnitt hinzufügst. Wenn Sie also einen zusätzlichen Abschnitt haben möchten oder wenn Sie der Meinung sind, dass er lang ist, können Sie ihn bitten, dieses Netzwerk zu entfernen, oder wir können sagen, wir können sagen kombiniert vier und zum Beispiel, ich sage, okay, kombinierte Abschnitte vier und fünf. Okay. Also wird es es neu schreiben, okay. Also dieses Feature, wie gesagt, es ist wirklich gut Wenn Sie diese Funktion jedoch nicht verwenden möchten, können Sie ein neues Diagramm öffnen und dort nach den Korrekturen fragen. Sie müssen nur den vorhandenen Inhalt kopieren und dann können Sie SBT bitten, die Änderungen vorzunehmen Aber anstatt das zu tun, wird das sehr nützlich sein Hier kombinierst du Dinge. Okay? Wenn du also darum bitten möchtest, diesen Abschnitt mit weiteren Details zu erweitern, kannst du darum bitten, ihn hier so zu erweitern. Okay? Also hier, du kannst hier mehr Details angeben, okay. Also diese Art von Zusammenarbeit, dieses Verfassen, diese Funktion , die nützlich ist, um einen schwarzen Beitrag zu schreiben. Okay. Okay. Also, da ich den Link schon bewiesen habe, benutzt es diesen Link. Okay? Dass wir sehr vorsichtig sein müssen, okay? Ich schätze, wenn du das für ganz andere Kunden machen willst , musst du vielleicht den Speicher zurücksetzen, okay? Dass wir uns an diese Dinge erinnern müssen, okay? Und dieser hier ist klar, oder? Also können wir Charge B verwenden, um schwarze Post zu schreiben und die schwarze Post zu verbessern und so. Und das ist ein Schritt, aber die beste Vorgehensweise ist, dass Sie das einfach kopieren und nach Deutschland bringen und Deutschland bitten müssen das einfach kopieren und nach Deutschland bringen , es zu verbessern, und Sie können Deutschland fragen , ob es hier irgendwelche Fehler gibt, denn wie gesagt, Frauen sind anfällig für Fehler, okay? Sie können Deutschland fragen, ähm, nachschauen, ob es dort falsche Informationen gibt. Durch die Kombination mehrerer LLMs können wir die Vorbereitung des Blogposts effektiv und einfach durchführen Es gibt einige Vorschläge, entweder können Sie diese Dinge manuell tun oder Sie können Gemini einfach bitten, diese Dinge anzuwenden und Ihren Also wird es den Artikel neu schreiben indem es diese Vorschläge anwendet, okay? Aber wie dem auch sei, Sie müssen diesen Artikel endlich vollständig überprüfen Andernfalls kann es immer noch einige Probleme geben, okay? Und natürlich können Sie Gemini oder RGPT bitten , einem professionellen Umgangston oder einer lustigen Schreibweise zu folgen professionellen Umgangston oder einer lustigen Schreibweise Damit du es immer spezifizieren kannst, okay? Es liegt also an Ihnen, basierend auf Ihren Empfehlungen. Es ist also quasi Teil von Prompt Engineering, oder? Sie müssen also, wie gesagt, zuerst mit Prompt Engineering sehr vertraut sein , und dann können Sie anfangen, es für verschiedene Zwecke zu verwenden, Dinge in Blogbeiträgen zu schreiben, okay? Also kannst du Deutschland bitten, es zu schreiben, auch wenn du dafür ein Bild zur Repräsentation benötigst , du kannst es bitten, ein Bild für diesen Beitrag zu erstellen, okay? Es wird also ein Bild erstellen. Und wieder kannst du zuerst mit dem Seitenverhältnis anfangen, okay? Wenn Sie ein Spa-Bild wünschen, haben Sie ein Seitenverhältnis von 16 mal neun. Du musst das Ding auch zur Verfügung stellen, okay? Und wenn du das Bild schon hast, kannst du es einfach hochladen , okay? Es hat dieses Bild bereitgestellt. Aber du musst sehr vorsichtig sein. Fast alle Schreibweisen werden völlig falsch sein. Das ist der aktuelle Stand der Image-Erstellung, okay? Sie können Deutschland also bitten, Bilder ohne jegliche Worte zu erstellen , okay? Das wird ein Ansatz sein. Oder Sie können Dinge manuell ändern. Und wie gesagt, du kannst jede Art von Bildern hochladen und dann kannst du Deutschland bitten, die Korrekturen vorzunehmen oder dich von diesem Bild inspirieren zu die Korrekturen vorzunehmen oder dich lassen, okay? Es können viele Dinge getan werden. Okay? Du kennst also zuerst die Grundlagen. Welche Funktionen sind mit diesen Tools verfügbar? Okay? Wir können Dateien hochladen, wir können Bilder hochladen, wir können den Voice-Chat machen. Mit solchen Dingen müssen wir vertraut sein. Und dann liegt es an unserer Vorstellungskraft. Wir können es effektiv nutzen, indem wir verschiedene Dinge miteinander kombinieren, okay? Wir können hochwertige schwarze Posts und relevante Bilder erstellen. Und wenn Sie YouTube-Videos erstellen, können Sie von hier aus Miniaturbilder erstellen Okay. Hier musst du das Seitenverhältnis angeben. An manchen Orten. Aber in Q One gibt es diese Option bei der Bilderzeugung, es wird nach dem Seitenverhältnis gefragt. Bei Typ 9 kannst du uns 169 geben, okay? Sie für das Video Bus A. Okay. Also haben wir hier die Bilderzeugung ausgewählt, dieses Seitenverhältnis Sie müssen sich also keine Gedanken über das Aspetverhältnis machen. Aber im Fall von Gemini müssen wir das Asper-Verhältnis, Unluck A, aber die Registrierung manuell angeben Unluck In ähnlicher Weise können wir PPC kombiniert ausführen. Nehmen wir zum Beispiel an, wenn Sie für Google Ads kandidieren, können Sie fragen, ob ich Google Ads betreibe . In den Schlagzeilen steht zum Beispiel, dass ich fragen kann Ich frage es in Q, genauso können wir es in GBTLF fragen, besser, wir können den Chat starten. können wir es in GBTLF fragen , besser, wir können Wir müssen verstehen, dass diesen LLMs bestimmte Kenntnisse vorenthalten werden, okay? Sie werden nicht über die neuesten Informationen verfügen, aber sie haben die Möglichkeit, im Internet zu suchen, aber das wird nicht so natürlich sein wie vorgefertigte Informationen Wann immer Sie es mit den neuesten Informationen zu tun haben , nehmen Sie einfach zusätzliche Informationen mit. Okay. Also hier gab es eine Beschreibung der Überschrift. Es lieferte also alle Details. Okay. Du kannst auch Tastaturen mit hohem Bekanntheitsgrad anbieten, okay? Okay. Also hier ist es in der Lage, Kopien zu erstellen, und es schlägt Tastaturen vor. Okay. Aber wie gesagt, es ist nicht sehr zuverlässig. Wie dem auch sei, wir müssen immer mit den Keyword-Tools nach Volumen suchen . Okay? So wie es nur eine Anleitung ist. Okay. Und ähnlich, hier auch in der Tiefsee oder in Deutschland oder auch hier. Da wir über das Bild gesprochen haben, hat es ein Bild geschaffen, das kopiert wird. Okay. Ken schlägt auch Dinge vor. Nur um es manuell durchzugehen, oder du kannst alles kopieren und in ein Alaun legen und es bitten, alles zu kombinieren und das beste auszuwählen, auch so Also erkunde einfach verschiedene Dinge, je nachdem, was für dich funktioniert, benutze es weiter, okay? Hier schlage ich einige Tastaturen vor. Vielleicht können wir Ihnen die Liste der Tastaturen geben. Wir bekommen also einige Keywords von hier und einige Keywords von dort, richtig Nehmen wir an, wenn Sie etwas Einzigartiges finden möchten, können wir entweder fragen, ob Sie mit Python-Kenntnissen vertraut sind , Sie können Python oder jede Art von Entwicklung fragen. Sie können ChagBT Germany bitten, dafür einen Symbolcode zu erstellen Andernfalls können Sie das LAM selbst bitten, die Dinge zu erledigen. Okay? Füge diese Dinge zusammen, füge auch diese Keywords hinzu und gib mir die endgültige Liste. Gib mir das My ohne Datenbankkürzungen. Okay, ich werde beide Dinge kombinieren und es wird dir eine einzigartige Liste von Schlüsselwörtern geben. Okay? Es ist also eine Möglichkeit, MS für die Erstellung von Schlüsselwörtern zu verwenden. Und sie bieten eine breite Übereinstimmung, richtig. Nehmen wir an, Sie möchten sie als Wortgruppe konvertieren. Entweder kannst du es darum bitten, oder du kannst einen symbolischen Python-Code erstellen, okay? Hier hat es Codes hinzugefügt, richtig. Und genauso können Sie es bitten, es zu einem EAT-Match zu bringen. Sie verbinden EAT Match, okay? Das sind alles sehr einfache Dinge, aber wenn Sie einmal damit angefangen haben, können Sie es verstehen oder Sie können verschiedene Möglichkeiten ausprobieren es effektiv zu nutzen, basierend auf Ihren Empfehlungen, okay? Es wird also in der Lage sein, Blogposts zu erstellen, Blogposts und Titel vorzuschlagen und Tastaturen zu erstellen, Kopien hinzuzufügen, okay Im Falle von Werbung in sozialen Medien können Sie es bitten, Tweets oder Instagram-Beiträge zu erstellen Also alles, was auch immer Sie tun möchten, Sie können es einfach fragen. Aber wir müssen die Anweisungen richtig geben und die Ergebnisse ordnungsgemäß überprüfen Das sind Dinge, die wir tun müssen, okay? Oder einige Aktivitäten, vielleicht etwas besser aufladen , Deutschland wird besser sein. Für das Extrahieren von Details aus YouTube-Videos Deutschland besser geeignet Angenommen, Sie möchten eine detaillierte Zusammenfassung der YouTube-Videozusammenfassung erhalten detaillierte Zusammenfassung der YouTube-Videozusammenfassung Sie können einfach das Video Hier, ich habe es für Bana bereitgestellt geben . Ich werde einfach mal Deutschland bitten, diesen Artikel zu schreiben, habe dieses Video gemacht. Es wird mir helfen, viel Zeit zu sparen. Sobald ich das Video erstellt habe, kann ich automatisch einen Blogbeitrag oder jede Art von Artikeln erstellen . Okay. Also drück auf irgendwas, ich kann das einfach schicken. Es ist auch in der Lage , die Details dieses Buches zu extrahieren. Diese Funktion wird von Gemini aus nützlich sein. In ähnlicher Weise ist sie in der Lage, Bilder mit einem bestimmten Seitenverhältnis zu erzeugen, das wir haben können Wir müssen forschen. Meiner persönlichen Erfahrung nach jedes LAM seinen eigenen Stent. Wir müssen nachforschen. Okay. Tschüss. 16. Google KI-Studio: Hallo zusammen, dieses Video dient der Erklärung von Google AI Studio. Google AI Studio ist eine sehr nützliche Anwendung. Es ist eine browserbasierte Webanwendung. Wir können einfach darauf zugreifen, indem wir aistudio.google.com im Webbrowser eingeben Es ist nützlich für die Entwicklung von KI-Anwendungen. Insbesondere ist es nützlich, um von Google bereitgestellte Modelle zu untersuchen. Hier können wir verschiedene Dinge untersuchen und dann den Code der Einstellungen abrufen, die wir hier angegeben haben. Wir können es einfach in unserer KI-Anwendung und Codierung implementieren. Das ist der Hauptzweck dieses KI-Studios. Hier können wir beispielsweise alle von Google bereitgestellten Modelle, Gemini-Modelle sowie Open-Source-Gemma-Modelle durchgehen. Hier können wir uns einen Überblick über jedes einzelne Modell verschaffen. Wenn Sie mit der Maus über ein bestimmtes Modell fahren, werden hier die Details zu den Preisdetails, den Input-Output-Preisen und dem Zweck des Modells angezeigt. Am besten geeignet, am nützlichsten für welchen Zweck und für Anwendungsfälle und ein Stichtag für Wissen, Ratenlimit. Wir können alle wichtigen Informationen für alle Modelle abrufen, sodass wir das passende Modell auf der Grundlage unserer eigenen Anforderungen auswählen können. Das ist hier eine wichtige Sache. Wir können das Modell wählen. Hier können wir die anderen Einstellungen wie Temperatur oder andere Dinge vornehmen. Wenn wir hier die Temperatur auf 0,9 einstellen und einfach den Get-Code verwenden können. Hier im Get-Code wird es auf 0,9 gesetzt. Wir können den Code einfach kopieren. Wenn wir Python-Code verwenden wollen, können wir diesen kopieren oder wenn Sie planen, ihn in JavaScript, Go, Android zu verwenden. Wir müssen die entsprechende Sprache wählen oder Sie können sofort auch die cURL verwenden. Normalerweise verwendet Python häufig einen. Dies ist die Übersicht über Google AI Studio. Wir können die Erkundung hier durchführen und einfach den Code kopieren und in unserer Anwendung verwenden. Dafür benötigen wir nur diesen API-Schlüssel. Sie können den API-Schlüssel für die Verwendung von Google Gemini erhalten. Erstellen Sie einfach den API-Schlüssel und dann können wir ihn verwenden Zum Erkunden von Eingabeaufforderungen gibt es hier verschiedene Optionen. Der Ausgangspunkt ist, dass Sie, wenn Sie ein Anfänger sind, diese Eingabeaufforderungsgalerie verwenden können Hier finden Sie viele Beispiele. Sie können sie einfach durchgehen und einfach darauf klicken und einfach die Beispielaufforderungen ausführen und sehen, wie es für verschiedene Modelle funktioniert Wir müssen nur eine Aufforderung auswählen, „welche größer ist“. Wir können hier jetzt, ich habe Gemini 1.5 ausgewählt. Wenn wir darauf klicken, funktioniert es mit diesem Modell. Dieses Modell sagt diese Erklärung und lassen Sie uns einige fortgeschrittene Modelle ausprobieren. Wir können dieses Ding im Experiment verwenden. Es gibt eine detaillierte Erklärung. Indem Sie verschiedene Modelle untersuchen, können Sie herausfinden, welches Modell für Sie geeignet ist. Dazu finden Sie die Leistung und die Preisdetails sowie weitere Details. Endlich kannst du dich entscheiden. Sobald Sie diese Dinge gefunden haben, können wir, wie gesagt, einfach diese Option „Code abrufen“ verwenden und den Code kopieren und in unserer Anwendung verwenden. Dies ist die Übersicht über dieses Google AI Studio. Hier finden wir viele Beispielaufforderungen und Sie können auch verschiedene Dinge erkunden Bei diesem handelt es sich um eine experimentelle Bilderzeugung. Es ist sehr nützlich, da es derzeit in der regulären Google Gemini-Anwendung nicht verfügbar ist Hier können wir es auch für unsere regulären Eingabeaufforderungen verwenden. Wenn Sie zum Beispiel eine Geburtstagskarte erstellen möchten, können Sie sie verwenden, oder wenn Sie einen Comic erstellen möchten generiert er eine Geschichte mit Bildern und die Bildbearbeitung ist wirklich mächtig. Nehmen wir zum Beispiel an, wenn Sie irgendeine Art von Bildbearbeitung machen möchten, können Sie das verwenden, zum Beispiel hier lade ich eine Datei hoch, ich lade mein Foto hoch und dann werde ich darum bitten, die Farbe zu ändern oder die Hemdfarbe auf Rot zu ändern Wenn du es eingibst, geht es zur nächsten Zeile. Wenn Sie es einreichen möchten, müssen Sie die Steuertaste verwenden oder auf diese klicken. Dieses Modell ist Gemini 2.0 Flash Image Generation. Es hat sich sofort die Farbe des Shirts geändert In ähnlicher Weise können wir viele Dinge tun. Nehmen wir zum Beispiel an, wir können es bitten, die Hintergrundfarbe zu ändern oder den Hintergrund zu entfernen. Es wird für verschiedene Zwecke nützlich sein. Die Bildbearbeitung wird hier sehr einfach gemacht. Auch zu diesem Zweck können wir es verwenden. Diese Funktion ist derzeit bei regulärem Google Gemini nicht verfügbar. Hier können wir es so verwenden. Aber in erster Linie dient es Entwicklungszwecken. Aber trotzdem können wir es auch für solche Dinge verwenden. In ähnlicher Weise werden alle zukünftigen Einführungen auch hier zuerst stattfinden. Es ist eine einfache Webbrowser-Anwendung. Wir können es einfach durchgehen. Wir können einfach anfangen, es zu benutzen. Es gibt auch andere Funktionen, wir können einfach den Bildschirm teilen und wir können alle Fragen über ein Mikrofon stellen und eine ausführliche Diskussion führen. Es ist, als würde man alle Modelle auf einfache Weise erkunden. Das ist der Zweck hier. Im Falle des Teilens auf Ihrem Bildschirm ist es meiner Meinung nach nur bei diesem Modell verfügbar. Zum Beispiel habe ich hier einen Blogbeitrag veröffentlicht. Wir können ihn fragen, was der Bildschirm so zeigt. Ich teile nur den Bildschirm. Was ist mit diesem Blogbeitrag? Es zeichnet sich durch schnelles Prototyping und Experimentieren, den Zugriff auf modernste Gemini-Modelle, vielseitige Benutzeroberflächen, einen nahtlosen SDK-Export und integrierte Sicherheitskontrollen aus. Möchten Sie, dass ich auf einen dieser Punkte näher eingehe? Können Sie uns sagen, wie Sie es effektiv einsetzen können? Sie möchten wissen, wie Sie Google AI Studio effektiv nutzen können. Stimmt das? Ja, richtig. Basierend auf dem Blogbeitrag scheint es, dass eine effektive Nutzung die Nutzung der Möglichkeiten zur schnellen Prototypenentwicklung und zum Experimentieren beinhaltet. Das bedeutet, Ideen schnell zu testen, anhand von Eingabeaufforderungen und Modellen zu iterieren und die schnellen Feedback-Schleifen zu nutzen. Darüber hinaus ist es wichtig, die vielseitigen Benutzeroberflächen für die effektive Kommunikation mit den Modellen zu nutzen. Schließlich müssen Sie möglicherweise die nahtlose SDK-Exportfunktion für die Integration in größere Anwendungen nutzen. Gibt es etwas Spezielles, über das Sie mehr erfahren möchten? Okay, das ist auch von Model by Visual Story. Es ist wirklich nützlich, für diese prompt generierte Geschichte von hier. Es erstellt das Bild und es ist auch sehr nützlich, dieses Modell intern zu verwenden. Okay. Du erstellst eine visuelle Geschichte für KI Es wird auch nützlich sein, um Videos zu erstellen, oder? Außerdem erstellen Sie einige nützliche Bilder. Wir können das Bild herunterladen. Okay, wie dem auch sei, es ist nur ein Beispiel, aber der Hauptzweck von Google AI Studio besteht darin, die neuen Modelle oder jede Art von Modellen zu erforschen. Es ist wirklich für neue Modelle und wir können mit verschiedenen Einstellungen testen. Wenn wir diese Parameter ändern, wird die Reaktion variieren. So können wir verschiedene Dinge visuell testen. Nehmen wir an, Temperatur ist in dem Sinne Kreativität. Wenn wir die Temperatur senken, wird diese Kreativität reduziert. Wenn Sie also sachliche Informationen wünschen, können Sie eine niedrige Temperatur einstellen. Das ist der Anfang, aber wir können es visuell testen. Und dann können wir endlich geeignete Dinge wählen. Okay, hier kannst du diese Dinge auch mitnehmen. Im Grunde können wir also sagen, dass es dazu dient, die Gemini-Modelle zu erforschen. Okay, also einfach zu verschiedenen Modellen und wir können sie untersuchen. Okay, und dann können wir diesen Get-Code verwenden und den Code in unseren KI-Anwendungen verwenden, indem wir diesen API-Schlüssel, den Gemini-API-Schlüssel, verwenden.