Ollama-Masterclass: LLMs vor Ort durchführen | Amit Diwan | Skillshare
Suchen

Playback-Geschwindigkeit


1.0x


  • 0.5x
  • 0.75x
  • 1x (normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Ollama-Masterclass: LLMs vor Ort durchführen

teacher avatar Amit Diwan, Corporate Trainer

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Einheiten dieses Kurses

    • 1.

      Über uns – Kurs-Intro

      1:18

    • 2.

      Ollama – Einführung und Funktionen

      3:43

    • 3.

      Ollama unter Windows 11 lokal installieren

      2:15

    • 4.

      Llama 3.2 auf Ollama installieren Windows 11 lokal

      3:33

    • 5.

      Installiere Mistral 7b auf Ollama Windows 11 lokal

      4:17

    • 6.

      Die Laufmodelle auf Ollama lokal auflisten

      0:39

    • 7.

      Liste aller Modelle, die mit Ollama auf Ihrem System installiert sind

      0:57

    • 8.

      Die Informationen eines Modells mit Ollama lokal anzeigen

      1:16

    • 9.

      So stoppst du ein Laufmodell auf Ollama

      1:10

    • 10.

      So führen Sie ein bereits installiertes Modell auf Ollama lokal aus

      1:51

    • 11.

      Erstelle eine benutzerdefinierte GPT oder passe ein Modell mit OLLAMA an

      8:41

    • 12.

      Entfernen Sie jedes Modell mit Ollama lokal

      1:31

  • --
  • Anfänger-Niveau
  • Fortgeschrittenes Niveau
  • Fortgeschrittenes Niveau
  • Jedes Niveau

Von der Community generiert

Das Niveau wird anhand der mehrheitlichen Meinung der Teilnehmer:innen bestimmt, die diesen Kurs bewertet haben. Bis das Feedback von mindestens 5 Teilnehmer:innen eingegangen ist, wird die Empfehlung der Kursleiter:innen angezeigt.

43

Teilnehmer:innen

--

Projekt

Über diesen Kurs

Willkommen zum Ollama-Kurs!

Ollama ist eine Open-Source-Plattform zum Herunterladen, Installieren, Verwalten, Ausführen und Bereitstellen großer Sprachmodelle (LLMs). All dies kann mit Ollama vor Ort erfolgen. LLM steht für Large Language Model. Diese Modelle sind so konzipiert, dass sie die menschliche Sprache auf hohem Niveau verstehen, generieren und interpretieren.

Funktionen

  • Modellbibliothek: Bietet eine Vielzahl vorgefertigter Modelle wie Llama 3.2, Mistral usw.

  • Anpassung: Ermöglicht es Ihnen, Ihre Modelle anzupassen und zu erstellen

  • Einfach: Bietet eine einfache API zum Erstellen, Ausführen und Verwalten von Modellen

  • Plattformübergreifend: Verfügbar für macOS, Linux und Windows

  • Modelfile: Verpackt alles, was Sie benötigen, um ein LLM in eine einzige Modelfile zu führen, was die Verwaltung und Ausführung von Modellen vereinfacht

Beliebte LLMs wie Llama von Meta, Mistral, Gemma von DeepMindvon Google von Google, Phi von Microsoft, Qwen von Alibaba Clouse usw. können mit Ollama lokal ausgeführt werden.

In diesem Kurs lernen Sie Ollama kennen und wie es die Arbeit eines Programmierers erleichtert, der LLMs läuft. Wir haben diskutiert, wie man mit Ollama beginnt, LLMs wie Lama 3.2, Mistral 7b usw. installiert und abstimmen kann. Wir haben auch behandelt, wie man ein Modell anpasst und einen Lehrassistenten wie ChatBot lokal erstellt, indem man eine Modedatei erstellt.

**Behandelte Lektionen**

  1. Ollama – Einführung und Funktionen

  2. Ollama Windows 11 lokal installieren

  3. Llama 3.2 installieren Windows 11 lokal

  4. Installiere Mistral 7b unter Windows 11 lokal

  5. Alle Modelle lokal auf Ollama auflisten

  6. Listen Sie die mit Ollama auf Ihrem System installierten Modelle auf

  7. Die Informationen eines Modells mit Ollama lokal zeigen

  8. So stoppst du ein Laufmodell auf Ollama

  9. So führen Sie ein bereits installiertes Modell auf Ollama lokal aus

  10. Erstelle eine benutzerdefinierte GPT oder passe ein Modell mit Ollama an

  11. Lokales Modell von Ollama entfernen

Hinweis: Wir haben nur Open-Source-Technologien abgedeckt

Lass uns die Reise beginnen!

Triff deine:n Kursleiter:in

Teacher Profile Image

Amit Diwan

Corporate Trainer

Kursleiter:in

Hello, I'm Amit,

I'm the founder of an edtech company and a trainer based in India. I have over 10 years of experience in creating courses for students, engineers, and professionals in varied technologies, including Python, AI, Power BI, Tableau, Java, SQL, MongoDB, etc.

We are also into B2B and sell our video and text courses to top EdTechs on today's trending technologies. Over 50k learners have enrolled in our courses across all of these edtechs, including SkillShare. I left a job offer from one of the leading product-based companies and three government jobs to follow my entrepreneurial dream.

I believe in keeping things simple, and the same is reflected in my courses. I love making concepts easier for my audience.

Vollständiges Profil ansehen

Level: Beginner

Kursbewertung

Erwartungen erfüllt?
    Voll und ganz!
  • 0%
  • Ja
  • 0%
  • Teils teils
  • 0%
  • Eher nicht
  • 0%

Warum lohnt sich eine Mitgliedschaft bei Skillshare?

Nimm an prämierten Skillshare Original-Kursen teil

Jeder Kurs setzt sich aus kurzen Einheiten und praktischen Übungsprojekten zusammen

Mit deiner Mitgliedschaft unterstützt du die Kursleiter:innen auf Skillshare

Lerne von überall aus

Ob auf dem Weg zur Arbeit, zur Uni oder im Flieger - streame oder lade Kurse herunter mit der Skillshare-App und lerne, wo auch immer du möchtest.

Transkripte

1. Über den Kurs: In diesem Videokurs lernen Sie Olama und seine Konzepte Oma ist eine Open-Source-Plattform zum Herunterladen, Installieren, Verwalten, Ausführen und Bereitstellen umfangreicher Sprachmodelle. All dies kann lokal mit Olama erledigt werden. Beliebte LLMs wie Lama von Meta, Mistral, Gemma von Googles DeepMind, F von Microsoft, Quin von Alibaba LLM steht für große Sprachmodelle. Diese Modelle sind darauf ausgelegt, menschliche Sprache auf hohem Niveau zu verstehen, zu erzeugen und zu interpretieren Diese werden anhand umfangreicher Datensätze trainiert und können Aufgaben wie Textgenerierung, Zusammenfassung, Übersetzung und Beantwortung Hier verarbeitet das LLM-Modell eine Eingabeaufforderung und generiert eine Antwort, als ob eine Eingabeaufforderung im Chat-GPT eingegeben wird In diesem Kurs haben wir die folgenden Lektionen anhand von Live-Running-Beispielen behandelt die folgenden Lektionen anhand von Live-Running-Beispielen Wir haben auch gezeigt, wie Sie ein benutzerdefiniertes GPT erstellen , bei dem es sich ein Chat-GPT-Modell in Form eines Assistenten Fangen wir mit der ersten Lektion an. 2. Ollama – Einführung und Funktionen: In dieser Lektion werden wir lernen, was Oma ist? Es ist die Einführung und die Funktionen. Lass uns sehen. Lama ist also im Grunde eine Open-Source-Plattform, die es einem Benutzer ermöglicht, große Sprachmodelle herunterzuladen, zu installieren, auszuführen und bereitzustellen, und das alles kann auf Ihrem lokalen System ausgeführt werden Sie würden sich also fragen, was LLMs sind. LLM steht also für große Sprachmodelle. Dies sind Modelle, die im Wesentlichen darauf ausgelegt sind, menschliche Sprachen zu verstehen, zu erzeugen und zu interpretieren Okay. Es beinhaltet also Milliarden von Parametern. Sie müssen also von LLM-Modellen wie Lama, Phi, Gemma, Mistral mit Milliarden von Parametern gehört haben Phi, Gemma, Mistral Wenn also die Parameter steigen, verbessert sich auch die Leistung des Modells Okay, es enthält in der Regel Milliarden von Parametern, sodass sie komplexe Sprachmuster erfassen und Text generieren können Okay, derzeit haben wir Lama 3.2 mistrl seven B, okay, diese Modelle basieren auf riesigen Datensätzen wie Artikeln aus dem Internet, Büchern und anderen Quellen Und bei diesen LLM-Modellen wird eine Antwort generiert, wenn Sie ihnen sofort eine Frage stellen . Okay, LLM verarbeitet die Informationen und generiert neue Inhalte für Sie, weshalb wir es generative KI nennen Okay, ich kann Aufgaben wie Beantwortung von Fragen, Übersetzungen und Zusammenfassungen Okay, es kann Text für dich generieren. Sie können daraus einen Artikel, Blogs oder eine E-Mail schreiben. Okay. Sie können diese LLMs mit Olama ausführen Dies sind die Funktionen von Olama. Es besteht aus einer vorgefertigten Modellbibliothek , die Ihr Ama von Meta, Mistral von MtoAI, Ihr Phi LLM von Microsoft und viele andere enthält Mistral von MtoAI, Ihr Phi LLM Okay, ich ermöglicht es Ihnen auch, Ihr Modell anzupassen und zu erstellen anzupassen In diesem Kurs werden wir sehen , wie wir unser eigenes Modell erstellen können. Es ist ziemlich einfach, es auszuführen und zu verwalten. Es enthält einfache APIs. Es ist plattformübergreifend. Sie können mit Olama unter Windows lokal unter Windows, Mac und Linux umgehen Windows lokal unter Windows, Mac und Linux Okay, es hat eine Modelldatei. Wir werden später eine Modelldatei erstellen , wenn wir unser eigenes Modell erstellen werden. Okay, die Modelldatei enthält alles , was Sie zum Ausführen eines LLM benötigen Das ist also eine einzige Datei , die wir erstellen werden, und wir werden sie verwenden, um unser Modell zu verwalten und auszuführen Lassen Sie uns also sehen, was Oma kann und warum es so beliebt ist. Es kann Ihnen ermöglichen, LLMs auf Ihrem lokalen System auszuführen. Das ist auf Ihrem Windows Ten, Windows 11, Mac und Linux Okay, das ist also eine grundlegende Interpretation von Olama, was Olama tun kann Wir verwenden die lokale Installation von Olama, was wir später tun werden. Sie können Ihr Lama Gemma Mistral Phi Quin ganz einfach herunterladen, ausführen, sogar bereitstellen und verwalten sogar bereitstellen und verwalten. All diese LLMs, Quinn ist von Alibaba Cloud. Okay, Pi ist von Microsoft, MStrol ist von Mitrol Gamma MStrol ist von Mitrol Okay, Lama ist von Meta. Auf diese Weise können Sie all diese Modelle einfach lokal mit Olama ausführen . Wir werden es später sehen Also, Leute, in diesem Video haben wir gesehen, was Olama ist? Warum ist es weit verbreitet. Was sind seine Merkmale? Danke , dass du dir das Video angesehen hast. 3. Installiere Ollama unter Windows 11 lokal: In diesem Video lernen wir, wie man Olama unter Windows 11 installiert Olama ist eine Open-Source-Plattform zum Herunterladen, Installieren, Bereitstellen und Ausführen Sehen wir uns an, wie man Olama installiert. Rufen Sie den Webbrowser auf Google Type, Olama auf Olama Wenn Sie die Eingabetaste drücken, ist die offizielle Website sichtbar. Klicke darauf. Jetzt können Sie sehen, dass die offizielle Website sichtbar ist. Wir wollen die Version für Windows, also klicke ich direkt hier. Herunterladen. Jetzt ist die Schaltfläche „Für Windows herunterladen“ sichtbar. Darauf müssen wir klicken. Klicken Sie auf Download gestartet 664 MB. Lass uns warten Wir haben die EXE-Datei heruntergeladen. nun mit der rechten Maustaste und klicken Sie auf Öffnen, um mit der Installation zu beginnen. Minimiere, klicke auf Installieren. Jetzt wird das Setup installiert, warten wir. Y Leute, wir haben Olama installiert Jetzt können Sie Type CMD starten und auf Öffnen klicken. Lassen Sie uns nun Type Olama überprüfen und die Eingabetaste drücken. Wenn Folgendes sichtbar ist, bedeutet das, dass wir Olama erfolgreich installiert haben Okay, das sind die verfügbaren Befehle. Auf diese Weise, Leute, können wir Oma einfach installieren. 4. Installiere Llama 3.2 auf Ollama Windows 11 lokal: In diesem Video erfahren wir, wie man ama 3.2 unter Windows 11 installiert Dazu werden wir zunächst Olama installieren, eine Open-Source-Plattform zum Ausführen von LLMs Dann werden wir im zweiten Schritt Lama 3.2 auf Olama installieren Wir haben Olema bereits in den vorherigen Videos installiert. Jetzt werden wir Lama 3.2 direkt installieren. Lass uns anfangen Jetzt werden wir Olama verwenden, um unseren Lama 3.2 zu installieren. Dafür, Leute, müssen wir den Befehl benutzen. Hier wird ein Modell ausgeführt, das heißt Befehl ausführen. Geben Sie also einfach Lama ein und führen Sie den Modellnamen Das ist also Lama 3.2. Sie können dies auch überprüfen. Wenn Sie sich erinnern, dass wir das geöffnet haben, gehen Sie zu Modellen. Jetzt können Sie unter Modell sehen, dass wir Lama 3.2 von Meta installieren Klicken Sie darauf. Und hier findest du den gleichen Befehl. Geh nach unten. Sie können alle Befehle oder Details zu Lama 3.2 sehen, und hier ist es, wir installieren 3.2, damit Sie den folgenden Befehl vergleichen können Es ist dasselbe. Okay. Olama Lama, 3.2. Das ist es. Sie müssen nur die Eingabetaste drücken und die Installation dauert einige Zeit. Es wird auch angezeigt, wie viele GB heruntergeladen werden. Drücken Sie die Eingabetaste. Oder Sie können sehen, dass es zieht. Hier sind es zwei GB, es wird also einige Zeit dauern. Lass uns warten. Leute, jetzt könnt ihr sehen, dass wir es installiert haben . Erfolg ist sichtbar. Okay, jetzt können Sie Ihre Eingabeaufforderung direkt hier eingeben. Nehmen wir an, ich frage. Was ist generatives I? Also wird es mir eine Antwort geben. Sie haben Lama 3.2 also erfolgreich mit Olama auf Ihrem System installiert Lama 3.2 also erfolgreich mit Olama auf Ihrem System und Sie können alles fragen Also, Leute, in diesem Video haben wir gesehen, wie wir Oma installieren können. Wir haben Lama 3.2 auf Olama installiert und auch eine Eingabeaufforderung versucht Danke, dass du dir das Video angesehen hast. 5. Installiere Mistral 7b auf Ollama Windows 11 lokal: In diesem Video erfahren wir, wie wir die Mistral AI auf Windows 11 lokal installieren können Mistral AI auf Windows 11 Zunächst müssen wir also Olama herunterladen und installieren , eine Open-Source-Plattform zum Ausführen Im zweiten Schritt werden wir ihnen Mistral AI installieren. Fangen wir mit dem ersten Schritt an. Olama installieren. Lass uns anfangen Wir haben Olama bereits in den vorherigen Videos installiert , um Ihr Modell Mistle AI auszuführen Sie müssen den Befehl run command eingeben. Also lass mich es eingeben. Hier ist es Olama Run und nenne dann den Modellnamen. Wir wollen aber den genauen Modellnamen. Gehen Sie also auf derselben Website zu Models. Hier können Sie nach dem gewünschten Modell suchen oder weiter unten gehen. Wenn Sie nach unten gehen, können Sie sehen, dass Mistral sichtbar ist. Okay, wir wollen die Sieben B. Ich klicke drauf. Okay, also hier ist es, und hier ist der Befehl. Sie müssen diesen Befehl eingeben. Wenn Sie eine andere Version wünschen, können Sie hier klicken. Aber im Moment ist Seven B der neueste. Sie können diesen Befehl direkt kopieren oder Mistral direkt eingeben und die Eingabetaste drücken Das Abrufen wird einige Zeit in Anspruch nehmen. Mal sehen, wie viele GB. Es sind vier GB, es wird also eine Menge Minuten dauern . Lass uns warten. Jetzt können Sie hier sehen, dass es erfolgreich ist. Es ist sichtbar. Jetzt kannst du direkt alles fragen. Sagen wir, ich frage, wer sind Sie? Okay, du siehst, ich bin eine große Sprache, die nicht von einem Meister trainiert wurde. Lassen Sie mich fragen, was Python ist? Lassen Sie uns die Antwort anhand des Modells sehen. Das war's, Leute, wir haben Miss Trolley erfolgreich installiert. Danke, dass du dir das Video angesehen hast. 6. Die Laufmodelle auf Ollama lokal auflisten: In diesem Video erfahren wir, wie wir ganz einfach die laufenden Modelle auf OlamaF auflisten können , die auf Start, CMD eingeben und auf Öffnen CMD eingeben Okay, gib Olama ein und du kannst alle Befehle sehen. Also wollen wir auflisten. Also wollen wir die laufenden Modelle auflisten. Also gebe ich OlaMaps ein und drücke Center. Also das war der neueste Mistral. Okay, auf diese Weise können Sie ganz einfach das laufende Modell auflisten. Danke, dass du dir das Video angesehen hast. 7. Listen Sie alle Modelle auf, die mit Ollama auf Ihrem System installiert sind: In diesem Video werden wir sehen, wie wir die Modelle auf Lama auflisten können die Modelle auf Lama auflisten Das heißt, alle Modelle haben wir mit Olama auf unserem lokalen System installiert Mal sehen, wie wir sie auflisten können. Geben Sie dazu CMD ein und klicken Sie auf Öffnen. Geben Sie jetzt hier Olama ein und Sie können alle Befehle sehen Wir wollen die Modelle auflisten, nicht die laufenden Modelle. Wir wollen nur alle Modelle auflisten. Dafür gebe ich Olama List ein. Das ist es. Und drücken Sie auf Center. Deshalb haben wir bis jetzt zwei Modelle installiert, Mistral sowie Lama 3.2 Das sind also die Modelle, die momentan sichtbar sind, weil wir es mit Olama installiert haben Auf diesem Maguis können Sie ganz einfach die Modelle auflisten , die Sie mit Olama installiert haben Danke, dass du dir das Video angesehen hast. 8. Die Informationen eines Modells mit Ollama lokal anzeigen: In diesem Video werden wir sehen, wie wir die Informationen für ein Modell anzeigen können Wir haben es mit Oma auf unserem System installiert. Also haben wir auf Command Prom lama eingegeben und alle Befehle sind sichtbar Um das zu zeigen, müssen wir also den Befehl show verwenden. Okay? Im Moment haben wir hier zwei Modelle. Wir haben mit dem Befehl Oma space list aufgelistet. Okay, nehmen wir an, ich möchte Informationen über Lama 3.2, Bodenart, Lama, Show, Lama 3.2, und lassen Sie uns sehen, welche Informationen Hier ist es, alle Informationen sind sichtbar. Architekturparameter 3,2 Milliarden, das wissen wir alle, die Länge des Kontextes sowie die Quantisierung zur Optimierung sind sichtbar und die Lizenzen Auf diese Weise, Leute, können wir auch unseren zweiten überprüfen. Das heißt Lama-Show. Das heißt, Miss Troll Und lass es mich noch einmal überprüfen. Es ist Miss Troll, richtig, Prayer Center. Und hier sind die Informationen. Es betraf 7,2 Milliarden Parameter sowie die Länge des Kontextes und die Länge der Einbettung Damit ist auch die Quantisierung sichtbar und die Lizenz auch sichtbar und die Lizenz Also, Leute, wir haben gesehen, wie wir mit Ulama die Informationen eines Modells zeigen können mit Ulama die Informationen eines Modells zeigen Danke, dass du dir das Video angesehen hast. 9. So stoppst du ein Laufmodell auf Ollama: In diesem Video erfahren wir, wie wir unser laufendes Modell in Olama stoppen Okay, hier können Sie sehen, dass wir unser Modell erneut getestet haben. Okay, Olama hat Lama 3.2 laufen lassen. Wir können es auch mit dem Befehl list running models, dem Befehl ps, überprüfen mit dem Befehl list running models, dem Befehl ps, Wenn ich also OlamaspACPS eintippe, wird das Lama 3.2 angezeigt Hier ist es, es ist sichtbar, weil wir es gerade ausgeführt haben Hier ist es, ich zeige wieder, dass Lama 3.2 lief. Okay, jetzt müssen wir es beenden. Für diesen Typ Lama, Stopp. Und derselbe Befehl ist auch hier sichtbar. Sie können hier Lama eingeben. Drücken Sie die Eingabetaste und alle Befehle sind sichtbar. Dies ist der Stop-Befehl. Stoppen oder starten Sie das Modell. Geben Sie nun den Namen des Modells an, das Sie beenden müssen. Das ist Lama 3.2 und drücken Sie die Eingabetaste. Jetzt heißt es Stopp Sie können dies erneut mit dem Befehl lama Ps und lama space ps überprüfen , und nichts wird sichtbar sein Jetzt ein Stop-D-Laufmodell. Vielen Dank, dass Sie sich das Video angesehen haben, wenn Sie den Stop-Befehl verwenden. 10. So führen Sie ein bereits installiertes Modell auf Ollama lokal aus: In diesem Feed erfahren wir, wie wir ein bereits installiertes Modell auf Olama lokal ausführen können ein bereits installiertes Modell auf Olama lokal ausführen Gehen Sie dazu zum Start von Type CMD. Klicken Sie auf Öffnen. Also hier ist es jetzt Typ Oma. Okay. Also werden wir zuerst die Modelle auflisten, die wir hier bereits installiert Geben Sie also Olama und den Befehl list ein Okay. Moderator und Sie können sehen, dass wir zwei davon installiert haben. Jetzt läuft keiner von ihnen, wir sollten überprüfen, ob auch die laufenden Modelle aufgelistet sind. Schauen wir uns an, welche alle Oma-PSPs ausführen , um die Liste der laufenden Modelle aufzulisten Ich drücke die Eingabetaste und Sie können sehen, dass keiner von ihnen gerade läuft Also was ich tun werde, ich werde es zuerst ausführen. Nehmen wir an, ich lasse dafür Lama 3.2 laufen. Verwenden Sie den Befehl Modell ausführen. Das heißt, ich gebe Olamarun Lama 3.2 ein. Wir müssen die Parameter auch genau angeben. 3.2 drücken Sie die auch genau angeben. 3.2 Jetzt wird es wieder ausgeführt und es hat angefangen. Okay. Jetzt kannst du alles eingeben, und sagen wir, also haben wir mit Lama angefangen Ich gebe etwas ein, sobald ich dazu aufgefordert werde. Okay. Auf diese Weise können Sie Ihre LLM-Modelle erneut mit dem Befehl run auf Ulama ausführen Danke, dass du dir das Video angesehen hast. 11. Erstelle eine benutzerdefinierte GPT oder passe ein Modell mit OLLAMA an: In diesem Video erfahren wir, wie wir mit dem Oma ein benutzerdefiniertes GBT erstellen oder sagen wir, ein Modell personalisieren können also bei Google Type, Olama und Prey Center hier Hier ist die offizielle Website. Wir haben Olama bereits heruntergeladen. Okay, jetzt geh zu Github, ihrem offiziellen Github. Hier in Go unten. Und hier können Sie sehen, wie Sie ein Modell anpassen können. Okay? Wir müssen diese Modelldatei erstellen. Wir werden in VS-Code erstellen und dann ein Modell erstellen und das Modell später auch mit unserem Namen ausführen. Okay, wir werden zuerst eine Modelldatei erstellen. Also lass es uns machen. Wir brauchen VS-Code dafür, lassen Sie uns zuerst installieren. Lass uns anfangen. Rufen Sie zunächst den Webbrowser von Google auf , geben Sie VS Code ein und drücken Sie die Eingabetaste. Jetzt ist die offizielle Website code.visualstudio.com sichtbar code.visualstudio.com Klicke darauf. Jetzt können Sie sehen, dass die Version sichtbar ist. Sie können von hier aus direkt auf Herunterladen klicken Hier finden Sie die Versionen für Windows, Linux und Mac. Ich klicke hier. Und jetzt wird der VS-Code heruntergeladen. Hier ist die Installationsdatei. Lass uns warten. nun mit der rechten Maustaste und klicken Sie auf Öffnen, um mit der Installation zu beginnen, zu minimieren, die Vereinbarung zu akzeptieren und auf Weiter zu klicken. Es werden 373 MB benötigt. Klicken Sie auf Weiter. Klicken Sie auf Weiter. Außerdem wird ein Startmenü-Ordner erstellt. Wenn Sie ein Dextrop-Symbol erstellen möchten, können Sie hier klicken, aber ich werde es nicht erstellen. Klicken Sie also auf Weiter. Klicken Sie jetzt auf Installieren Leute, wir haben VSCode erfolgreich installiert. Ich klicke auf Fertig stellen, aber ich deaktiviere das Häkchen , damit ich es von einer anderen Stelle aus öffnen kann. Klicken Sie auf Fertig stellen. Also Leute, wir haben VSCode erfolgreich installiert, lasst es uns öffnen. Gehen Sie zum Start, geben Sie VSCode ein und öffnen Sie es. Jetzt, Leute, ich klicke hier und öffne einen Ordner. Nehmen wir an, mein Ordner befindet sich im Laufwerk D. Ich erstelle einen neuen Ordner, Amit Project. Okay. Ich klicke und klicke auf Ordner auswählen. Wie ich vertraue. Klicken Sie jetzt mit der rechten Maustaste, erstellen Sie eine neue Datei und nennen Sie sie Modelldatei. Okay, hier ist es. Jetzt können Sie hier sehen, dass wir eine Modelldatei erstellt haben. Code, kopiere ihn einfach und füge ihn dort ein. Okay, ich habe es eingefügt und auch einige Änderungen vorgenommen Also statt dieses Mario-Stabsassistenten habe ich gerade erwähnt, dass Sie ein Cricket-Analyst sind Antworte nur als Assistentin auf Anfrage. Du weißt, wie man Cricket spielt, andere Cricketspieler ausbildet und alle Begriffe, die mit Cricket zu tun Okay, Datei, speichern. Klicken Sie jetzt mit der rechten Maustaste und kopieren Sie den Pfad, minimieren Sie ihn. Okay. Gehen Sie zur Startzeit CMD und klicken Sie auf Öffnen Jetzt können Sie Ihre Modelle sehen Welche Modelle laufen? Falscher Eolama Ich werde die Modelle mit PS Command, Lama Ps Press Center überprüfen und Sie können sehen unser Lama 3.2 läuft. Okay, hier ist es Jetzt erreiche ich einfach den Pfad, klicke mit der rechten Maustaste und füge ihn ein. Hier ist es, es ist unser D-Laufwerk. Ich kann das auch direkt decolon machen und wir sind in D Drive Jetzt mach DIR auf CMD und du hast ein Amit-Projekt CD-Speicherplatz Amith-Projekt, und Sie befinden sich in Ihrem Ordner Hier ist es. Geben Sie den Befehl create ein. Sie müssen Ihren Modellnamen angeben. Nehmen wir an, ich nenne Cricket-Analyst Ameth Bindestrich F und dann Model File und Also habe ich einfach den Code von hier genommen. Hier ist er, Olama Mari Hyphen M kreiert. Ich habe gerade meinen Modellnamen erwähnt Jetzt schauen wir uns die Moderatorin Entschuldigung, ich habe Offensichtlich. Okay, also Lama Create ist der Befehl Sie können es von hier aus überprüfen. Erstellen Sie ein Modell aus einer Modelldatei. Das ist es, was wir tun. Und ich drücke jetzt einfach die Eingabetaste. Und Sie können den Erfolg sehen. Okay. Okay, jetzt lasse ich es laufen. Unser Modell wurde von OlmaRun Cricket Analyst Ametho entwickelt, also habe ich gerade Ihr Ath-Modell für Cricket-Analyst erstellt Drücken Sie die Eingabetaste. Okay, wir lassen jetzt unser Modell laufen. Der Run-Befehl. Offensichtlich wissen Sie, dass es hier ist. Sie können alle Befehle mit dem Olama überprüfen . Das ist es Jetzt drücke ich Enter. Sie können es sehen, wir werden es ausführen. Nun, das ist unser benutzerdefiniertes GPT, das wie unser Assistent ist Jetzt ist Ihr benutzerdefiniertes GPT fertig. Geben Sie Hallo ein, wie geht es Ihnen heute? Hier können Sie sehen, dass ich Cricket-Analyst bin. Okay, lassen Sie mich fragen, wie man einen perfekten oder einen perfekten Cover-Drive spielt. Okay, also der Lehrassistent oder Cricket-Assistent antwortet: Okay. Y Also, Leute, auf diese Weise können Sie ganz einfach Ihr benutzerdefiniertes GPT erstellen Wir haben einen Lehrassistenten in Form eines Cricket-Analysten geschaffen in Form eines Cricket-Analysten Also hier waren unsere Akten. Denken Sie daran, Indiv inmitten des Projekts, und das war unsere Modelldatei Insider, S-Code. Okay, wir haben gerade diese Aufforderung hier hinzugefügt, und das war für mehr Kreativität vorgesehen. Okay, Temperatur eins. Von Laman Two, das ist der Modellname und das ist unsere Botschaft Wenn du es nehmen möchtest, kannst du es vom offiziellen Github nehmen Und das ist der Code. Das war unsere Modelldatei, und das waren die Befehle, um sie auszuführen. 12. Entfernen Sie jedes Modell mit Ollama lokal: In diesem Video erfahren wir, wie Sie jedes Modell auf Olama lokal entfernen können Lassen Sie uns dazu zum Start gehen und CMD eingeben und es öffnen. Lassen Sie mich jetzt den Befehl Olama eingeben und alle Befehle hier leicht finden Zuerst werde ich alle Modelle auf diesem System auflisten. Olama Space List. Olmaspace-Liste und drücken Sie die Eingabetaste. Hier sind die beiden Modelle, die wir installiert haben: Mistro und Lama 3.2. Das erste ist von Mistro und das zweite ist von Meta. Nun, was ich tun werde, ich muss es entfernen. Okay, also benutze den RM-Befehl. Oma, Leerzeichen RM und nenne den Namen des Modells. Sagen wir, ich nenne Mistral. Ich werde Mistral erwähnen und hier ist der Name. Sie müssen also nur Mistrl eingeben und auf Center drücken. Wenn Sie Lama eingeben, müssen Sie auch den Parameter angeben Das bedeutet in diesem Fall, der Name Lama 3.2 ist Okay, lass mich es deinstallieren, okay? Oma Space RM Space Lama 3.2 wurde gelöscht. Okay, füllen Sie jetzt die Lama-Checkliste erneut aus. Sie können sehen, dass nur einer von ihnen sichtbar ist. Hier ist Mistroll sichtbar weil wir gerade Lama 3.2 gelöscht Also, Leute, auf diese Weise könnt ihr jedes Modell mit Lama ganz einfach entfernen Danke, dass du dir das Video angesehen hast.