Transkripte
1. Über den Kurs: In diesem Videokurs lernen Sie Olama und seine Konzepte Oma ist eine Open-Source-Plattform
zum Herunterladen, Installieren,
Verwalten, Ausführen und Bereitstellen
umfangreicher Sprachmodelle. All dies kann
lokal mit Olama erledigt werden. Beliebte LLMs
wie Lama von Meta,
Mistral, Gemma von
Googles DeepMind,
F von Microsoft, Quin von Alibaba LLM steht für große Sprachmodelle. Diese Modelle sind
darauf ausgelegt, menschliche Sprache auf hohem Niveau zu verstehen,
zu erzeugen und zu
interpretieren Diese werden anhand
umfangreicher Datensätze trainiert und können Aufgaben wie
Textgenerierung, Zusammenfassung, Übersetzung
und Beantwortung Hier
verarbeitet das LLM-Modell eine
Eingabeaufforderung und generiert eine Antwort, als ob
eine Eingabeaufforderung im
Chat-GPT eingegeben wird In diesem Kurs haben wir
die folgenden Lektionen anhand von
Live-Running-Beispielen behandelt die folgenden Lektionen anhand von
Live-Running-Beispielen Wir haben auch gezeigt, wie Sie
ein benutzerdefiniertes GPT erstellen , bei dem es sich ein Chat-GPT-Modell in
Form eines Assistenten Fangen wir mit
der ersten Lektion an.
2. Ollama – Einführung und Funktionen: In dieser Lektion werden wir
lernen, was Oma ist? Es ist die Einführung und die
Funktionen. Lass uns sehen. Lama ist also im Grunde eine Open-Source-Plattform, die
es einem Benutzer ermöglicht,
große Sprachmodelle herunterzuladen, zu installieren, auszuführen und bereitzustellen, und das alles kann
auf Ihrem lokalen System ausgeführt werden Sie würden
sich also fragen, was LLMs sind. LLM steht also für
große Sprachmodelle. Dies sind Modelle, die
im Wesentlichen darauf ausgelegt sind, menschliche Sprachen zu verstehen, zu erzeugen und
zu interpretieren Okay. Es beinhaltet also
Milliarden von Parametern. Sie müssen also von LLM-Modellen wie Lama,
Phi, Gemma, Mistral mit Milliarden von Parametern
gehört haben Phi, Gemma, Mistral Wenn also die Parameter steigen, verbessert sich auch die Leistung des Modells Okay, es enthält in der Regel
Milliarden von Parametern, sodass sie
komplexe Sprachmuster erfassen und Text generieren können Okay, derzeit haben wir Lama 3.2 mistrl seven B, okay, diese Modelle basieren auf riesigen Datensätzen wie
Artikeln aus dem Internet, Büchern und anderen Quellen Und bei diesen LLM-Modellen wird eine Antwort generiert, wenn
Sie ihnen sofort eine Frage stellen . Okay, LLM verarbeitet die Informationen und generiert
neue Inhalte für Sie, weshalb wir
es generative KI nennen Okay, ich kann Aufgaben wie Beantwortung von Fragen,
Übersetzungen und Zusammenfassungen Okay, es kann
Text für dich generieren. Sie können daraus einen Artikel,
Blogs oder eine E-Mail schreiben. Okay. Sie können diese
LLMs mit Olama ausführen Dies sind die Funktionen von Olama. Es besteht aus einer
vorgefertigten Modellbibliothek , die Ihr Ama von Meta,
Mistral von MtoAI,
Ihr Phi LLM von Microsoft und viele andere enthält Mistral von MtoAI, Ihr Phi LLM Okay, ich ermöglicht es Ihnen auch, Ihr Modell
anzupassen und zu erstellen anzupassen In diesem Kurs werden wir sehen , wie wir unser eigenes Modell
erstellen können. Es ist ziemlich einfach, es
auszuführen und zu verwalten. Es enthält einfache APIs. Es ist plattformübergreifend. Sie können
mit Olama unter
Windows lokal unter Windows,
Mac und Linux umgehen Windows lokal unter Windows, Mac und Linux Okay, es hat eine Modelldatei. Wir werden später
eine Modelldatei erstellen , wenn wir
unser eigenes Modell erstellen werden. Okay, die Modelldatei enthält
alles , was Sie
zum Ausführen eines LLM benötigen Das ist also eine einzige Datei , die wir
erstellen werden, und wir
werden sie verwenden, um unser Modell zu verwalten
und auszuführen Lassen Sie uns also sehen, was Oma kann
und warum es so beliebt ist. Es kann Ihnen ermöglichen,
LLMs auf Ihrem lokalen System auszuführen. Das ist auf Ihrem Windows Ten, Windows 11, Mac und Linux Okay, das ist also eine grundlegende Interpretation von
Olama, was Olama tun kann Wir verwenden die
lokale Installation von Olama, was wir später tun werden. Sie können
Ihr Lama Gemma Mistral
Phi Quin ganz einfach herunterladen, ausführen, sogar bereitstellen und verwalten sogar bereitstellen und verwalten. All diese LLMs,
Quinn ist von Alibaba Cloud. Okay, Pi ist von Microsoft,
MStrol ist von Mitrol Gamma MStrol ist von Mitrol Okay, Lama ist von Meta. Auf diese Weise können
Sie
all diese Modelle einfach lokal mit Olama
ausführen . Wir werden es später sehen Also, Leute, in diesem Video
haben wir gesehen, was Olama ist? Warum ist es weit verbreitet. Was sind seine Merkmale? Danke
, dass du dir das Video angesehen hast.
3. Installiere Ollama unter Windows 11 lokal: In diesem Video lernen wir, wie man Olama unter Windows 11
installiert Olama ist eine
Open-Source-Plattform zum Herunterladen,
Installieren, Bereitstellen und Ausführen Sehen wir uns an, wie man Olama installiert.
Rufen Sie den Webbrowser
auf Google Type, Olama auf Olama Wenn Sie die Eingabetaste drücken, ist die
offizielle Website sichtbar. Klicke darauf. Jetzt können Sie sehen, dass die offizielle
Website sichtbar ist. Wir wollen die Version für Windows, also klicke ich direkt hier. Herunterladen. Jetzt ist die Schaltfläche „Für
Windows herunterladen“ sichtbar. Darauf
müssen wir klicken. Klicken Sie auf Download gestartet
664 MB. Lass uns warten Wir haben die EXE-Datei heruntergeladen. nun mit der rechten Maustaste und klicken Sie auf Öffnen, um mit der Installation zu beginnen. Minimiere, klicke auf Installieren. Jetzt wird das Setup
installiert, warten wir. Y Leute, wir haben Olama installiert Jetzt können Sie
Type CMD starten und auf Öffnen klicken. Lassen Sie uns nun Type
Olama überprüfen und die Eingabetaste drücken. Wenn Folgendes sichtbar ist, bedeutet
das, dass wir Olama erfolgreich
installiert haben Okay, das sind die
verfügbaren Befehle. Auf diese Weise, Leute,
können wir Oma einfach installieren.
4. Installiere Llama 3.2 auf Ollama Windows 11 lokal: In diesem Video
erfahren wir, wie man ama 3.2 unter Windows 11
installiert Dazu werden
wir zunächst
Olama installieren, eine
Open-Source-Plattform zum Ausführen von LLMs Dann werden wir im zweiten Schritt Lama 3.2 auf Olama installieren Wir haben Olema bereits
in den vorherigen Videos installiert. Jetzt werden wir Lama 3.2 direkt
installieren. Lass uns anfangen Jetzt werden wir Olama verwenden,
um unseren Lama 3.2 zu installieren. Dafür, Leute, müssen wir
den Befehl benutzen. Hier wird ein Modell ausgeführt, das heißt Befehl ausführen. Geben Sie also einfach Lama ein und führen Sie den Modellnamen Das ist also Lama 3.2. Sie können dies auch überprüfen. Wenn Sie sich erinnern, dass wir
das geöffnet haben, gehen Sie zu Modellen. Jetzt können Sie unter Modell sehen, dass wir
Lama 3.2 von Meta installieren Klicken Sie darauf. Und hier findest
du
den gleichen Befehl. Geh nach unten. Sie können alle Befehle oder
Details zu Lama 3.2 sehen, und hier ist es,
wir installieren 3.2, damit Sie den
folgenden Befehl vergleichen können Es ist dasselbe. Okay. Olama Lama, 3.2. Das ist es. Sie müssen nur die Eingabetaste
drücken und die Installation
dauert einige Zeit. Es wird auch angezeigt, wie
viele GB heruntergeladen werden. Drücken Sie die Eingabetaste. Oder Sie
können sehen, dass es zieht. Hier sind es zwei GB, es wird also einige Zeit
dauern. Lass uns warten. Leute, jetzt könnt ihr sehen, dass wir es
installiert haben .
Erfolg ist sichtbar. Okay, jetzt können Sie Ihre
Eingabeaufforderung direkt hier eingeben. Nehmen wir an, ich frage. Was ist generatives I? Also wird
es mir eine Antwort geben. Sie haben Lama 3.2 also
erfolgreich mit Olama auf Ihrem
System installiert Lama 3.2 also
erfolgreich mit Olama auf Ihrem
System und Sie können alles fragen Also, Leute, in diesem Video haben wir
gesehen, wie wir Oma installieren können. Wir haben
Lama 3.2 auf Olama installiert und auch eine
Eingabeaufforderung versucht Danke, dass du dir das
Video angesehen hast.
5. Installiere Mistral 7b auf Ollama Windows 11 lokal: In diesem Video
erfahren wir, wie wir die Mistral AI auf Windows
11 lokal installieren können Mistral AI auf Windows
11 Zunächst müssen wir also
Olama
herunterladen und installieren , eine
Open-Source-Plattform zum Ausführen Im zweiten Schritt werden wir ihnen Mistral
AI installieren. Fangen wir mit dem ersten Schritt an. Olama installieren. Lass uns anfangen Wir haben Olama bereits in
den vorherigen Videos installiert , um Ihr Modell Mistle AI
auszuführen Sie müssen den
Befehl run command eingeben. Also lass mich es eingeben. Hier ist es Olama Run und nenne
dann den Modellnamen. Wir wollen aber den
genauen Modellnamen. Gehen Sie also auf derselben
Website zu Models. Hier können Sie
nach dem
gewünschten Modell suchen oder weiter unten gehen. Wenn Sie nach unten gehen, können Sie
sehen, dass Mistral sichtbar ist. Okay, wir wollen die Sieben
B. Ich klicke drauf. Okay, also hier ist es, und
hier ist der Befehl. Sie müssen diesen Befehl eingeben. Wenn Sie eine andere
Version wünschen, können Sie hier klicken. Aber im Moment ist Seven
B der neueste. Sie können diesen
Befehl direkt kopieren oder
Mistral direkt eingeben und die Eingabetaste drücken Das Abrufen wird einige Zeit in Anspruch nehmen. Mal sehen, wie viele GB. Es sind vier GB, es wird also
eine Menge
Minuten dauern . Lass uns warten. Jetzt können Sie hier sehen,
dass es erfolgreich ist. Es ist sichtbar. Jetzt kannst du
direkt alles fragen. Sagen wir, ich
frage, wer sind Sie? Okay, du siehst, ich bin eine große Sprache, die
nicht von einem Meister trainiert wurde. Lassen Sie mich fragen, was Python ist? Lassen Sie uns die Antwort
anhand des Modells sehen. Das war's, Leute, wir haben Miss Trolley erfolgreich
installiert. Danke, dass du dir das
Video angesehen hast.
6. Die Laufmodelle auf Ollama lokal auflisten: In diesem Video
erfahren wir, wie wir ganz einfach die laufenden Modelle auf
OlamaF
auflisten können , die auf Start, CMD
eingeben und auf Öffnen CMD
eingeben Okay, gib Olama ein und du
kannst alle Befehle sehen. Also wollen wir auflisten. Also wollen wir
die laufenden Modelle auflisten. Also gebe ich OlaMaps ein
und drücke Center. Also das war der
neueste Mistral. Okay, auf diese Weise können Sie
ganz einfach das laufende Modell auflisten. Danke, dass du dir das
Video angesehen hast.
7. Listen Sie alle Modelle auf, die mit Ollama auf Ihrem System installiert sind: In diesem Video
werden wir sehen, wie wir die Modelle auf Lama
auflisten können die Modelle auf Lama
auflisten Das heißt, alle Modelle haben wir mit Olama
auf unserem lokalen
System installiert Mal sehen, wie wir sie auflisten können. Geben Sie dazu CMD ein und klicken Sie auf Öffnen. Geben Sie jetzt hier Olama ein und Sie können
alle Befehle sehen Wir wollen die Modelle auflisten, nicht die laufenden Modelle. Wir wollen nur
alle Modelle auflisten. Dafür gebe ich Olama List ein. Das ist es. Und drücken Sie auf Center. Deshalb haben wir bis jetzt
zwei Modelle installiert, Mistral sowie Lama 3.2 Das sind also die Modelle, die
momentan sichtbar sind, weil wir es mit Olama
installiert haben Auf diesem Maguis
können Sie ganz einfach
die Modelle auflisten , die Sie mit Olama
installiert haben Danke, dass du dir das
Video angesehen hast.
8. Die Informationen eines Modells mit Ollama lokal anzeigen: In diesem Video
werden wir sehen, wie wir die Informationen
für ein Modell anzeigen
können Wir haben es mit Oma auf unserem
System installiert. Also
haben wir auf Command Prom lama eingegeben und alle Befehle
sind sichtbar Um das zu zeigen, müssen wir also den
Befehl show verwenden. Okay? Im Moment
haben wir hier zwei Modelle. Wir haben mit dem Befehl Oma
space list aufgelistet. Okay, nehmen wir an, ich
möchte
Informationen über Lama 3.2,
Bodenart, Lama, Show,
Lama 3.2, und lassen Sie uns sehen, welche
Informationen Hier ist es, alle
Informationen sind sichtbar. Architekturparameter
3,2 Milliarden, das wissen wir alle, die Länge des Kontextes sowie die Quantisierung
zur Optimierung sind sichtbar und die Lizenzen Auf diese Weise, Leute, können wir
auch unseren zweiten überprüfen. Das heißt
Lama-Show. Das heißt, Miss Troll Und lass es mich noch einmal überprüfen. Es ist Miss Troll,
richtig, Prayer Center. Und hier sind die
Informationen. Es betraf 7,2 Milliarden Parameter sowie die Länge des Kontextes
und die Länge der Einbettung Damit ist auch die Quantisierung
sichtbar und die Lizenz auch sichtbar und die Lizenz Also, Leute, wir haben gesehen, wie wir mit Ulama die Informationen
eines Modells
zeigen können mit Ulama die Informationen
eines Modells
zeigen Danke, dass du dir das
Video angesehen hast.
9. So stoppst du ein Laufmodell auf Ollama: In diesem Video erfahren wir, wie
wir unser laufendes
Modell in Olama stoppen Okay, hier können Sie sehen, dass
wir unser Modell erneut getestet haben. Okay, Olama hat Lama 3.2 laufen lassen. Wir können es auch
mit dem Befehl list running
models, dem Befehl ps, überprüfen mit dem Befehl list running
models, dem Befehl ps, Wenn ich also OlamaspACPS eintippe, wird das Lama 3.2
angezeigt Hier ist es, es ist sichtbar,
weil wir es gerade ausgeführt haben Hier ist es, ich zeige wieder, dass
Lama 3.2 lief. Okay, jetzt müssen wir es beenden. Für diesen Typ Lama, Stopp. Und derselbe Befehl
ist auch hier sichtbar. Sie können hier Lama eingeben. Drücken Sie die Eingabetaste und alle
Befehle sind sichtbar. Dies ist der Stop-Befehl.
Stoppen oder starten Sie das Modell. Geben Sie nun den Namen des
Modells an, das Sie beenden müssen. Das ist Lama 3.2 und drücken Sie die
Eingabetaste. Jetzt heißt es Stopp Sie können dies erneut
mit dem Befehl lama Ps und
lama space ps überprüfen , und
nichts wird sichtbar sein Jetzt ein Stop-D-Laufmodell. Vielen Dank, dass
Sie sich das Video angesehen haben, wenn Sie den Stop-Befehl verwenden.
10. So führen Sie ein bereits installiertes Modell auf Ollama lokal aus: In diesem Feed
erfahren wir, wie wir ein bereits installiertes
Modell auf Olama lokal
ausführen können ein bereits installiertes
Modell auf Olama lokal
ausführen Gehen Sie dazu zum Start von Type CMD. Klicken Sie auf Öffnen. Also hier ist
es jetzt Typ Oma. Okay. Also werden wir zuerst die Modelle auflisten, die wir hier bereits
installiert Geben Sie
also Olama und
den Befehl list ein Okay. Moderator und Sie können
sehen, dass wir zwei davon installiert haben. Jetzt läuft keiner von ihnen,
wir sollten überprüfen, ob auch
die laufenden Modelle aufgelistet sind. Schauen wir uns an, welche alle Oma-PSPs
ausführen , um die Liste der
laufenden Modelle aufzulisten Ich drücke die Eingabetaste und Sie können sehen, dass keiner von ihnen
gerade läuft Also was ich tun werde,
ich werde es zuerst ausführen. Nehmen wir an, ich lasse dafür Lama 3.2
laufen. Verwenden Sie den Befehl Modell ausführen. Das heißt, ich gebe
Olamarun Lama 3.2 ein. Wir müssen die Parameter
auch genau angeben. 3.2 drücken Sie
die auch genau angeben. 3.2 Jetzt wird es
wieder ausgeführt und es hat angefangen. Okay. Jetzt kannst du alles eingeben, und sagen wir, also haben wir mit Lama
angefangen Ich gebe etwas ein, sobald ich dazu aufgefordert werde. Okay. Auf diese Weise können
Sie
Ihre LLM-Modelle erneut mit dem Befehl run auf Ulama ausführen Danke, dass du dir das
Video angesehen hast.
11. Erstelle eine benutzerdefinierte GPT oder passe ein Modell mit OLLAMA an: In diesem Video
erfahren wir, wie wir mit dem Oma
ein benutzerdefiniertes GBT erstellen oder sagen wir,
ein Modell personalisieren
können also bei Google Type, Olama und Prey
Center hier Hier ist die offizielle Website. Wir haben Olama bereits heruntergeladen. Okay, jetzt geh zu Github,
ihrem offiziellen Github. Hier in Go unten. Und hier können Sie sehen, wie Sie ein Modell
anpassen können. Okay? Wir müssen
diese Modelldatei erstellen. Wir werden in VS-Code erstellen und dann
ein Modell erstellen und das
Modell später auch mit unserem Namen ausführen. Okay, wir werden zuerst eine Modelldatei
erstellen. Also lass es uns machen. Wir brauchen VS-Code dafür,
lassen Sie uns zuerst installieren. Lass uns anfangen. Rufen Sie zunächst den Webbrowser von
Google auf , geben Sie VS Code ein
und drücken Sie die Eingabetaste. Jetzt ist die offizielle
Website
code.visualstudio.com sichtbar code.visualstudio.com Klicke darauf. Jetzt können Sie
sehen, dass die Version sichtbar ist. Sie können von hier aus direkt auf
Herunterladen klicken Hier finden Sie die
Versionen für Windows,
Linux
und Mac. Ich klicke hier. Und jetzt wird der VS-Code heruntergeladen. Hier ist die
Installationsdatei. Lass uns warten. nun mit der rechten Maustaste und klicken Sie auf Öffnen, um mit der Installation zu beginnen, zu minimieren, die
Vereinbarung zu akzeptieren und auf Weiter zu klicken. Es werden 373 MB benötigt. Klicken Sie auf Weiter. Klicken Sie auf Weiter. Außerdem wird
ein Startmenü-Ordner erstellt. Wenn Sie ein
Dextrop-Symbol erstellen möchten, können Sie hier klicken, aber ich werde es nicht erstellen.
Klicken Sie also auf Weiter. Klicken Sie jetzt auf Installieren Leute, wir haben VSCode erfolgreich
installiert. Ich klicke auf Fertig stellen, aber
ich deaktiviere das Häkchen
, damit ich es von einer anderen
Stelle aus öffnen kann. Klicken Sie auf Fertig stellen. Also Leute, wir haben
VSCode erfolgreich installiert, lasst es uns öffnen. Gehen Sie zum Start, geben Sie
VSCode ein und öffnen Sie es. Jetzt, Leute, ich klicke hier
und öffne einen Ordner. Nehmen wir an, mein Ordner
befindet sich im Laufwerk D. Ich erstelle einen neuen
Ordner, Amit Project. Okay. Ich klicke und
klicke auf Ordner auswählen. Wie ich vertraue. Klicken Sie jetzt mit der rechten Maustaste, erstellen Sie eine neue Datei und nennen Sie sie
Modelldatei. Okay, hier ist es. Jetzt können Sie hier sehen,
dass wir eine Modelldatei erstellt haben. Code, kopiere ihn einfach
und füge ihn dort ein. Okay, ich habe es eingefügt und auch einige Änderungen vorgenommen Also statt dieses
Mario-Stabsassistenten habe
ich gerade erwähnt, dass Sie ein Cricket-Analyst
sind Antworte nur als
Assistentin auf Anfrage.
Du weißt, wie man Cricket spielt,
andere Cricketspieler ausbildet und alle Begriffe, die mit Cricket zu
tun Okay, Datei, speichern. Klicken Sie jetzt mit der rechten Maustaste und
kopieren Sie den Pfad, minimieren Sie ihn. Okay. Gehen Sie zur
Startzeit CMD und klicken Sie auf Öffnen Jetzt können Sie Ihre Modelle sehen Welche Modelle
laufen? Falscher Eolama Ich werde die Modelle
mit PS Command,
Lama Ps Press Center überprüfen und Sie können sehen unser Lama 3.2 läuft.
Okay, hier ist es Jetzt erreiche ich einfach den
Pfad, klicke mit der rechten Maustaste und füge ihn ein. Hier ist es, es ist unser D-Laufwerk. Ich kann das auch direkt
decolon machen und wir sind
in D Drive Jetzt mach DIR auf CMD und du hast ein Amit-Projekt CD-Speicherplatz Amith-Projekt, und Sie befinden sich in Ihrem Ordner Hier ist es. Geben Sie
den Befehl create ein. Sie müssen
Ihren Modellnamen angeben. Nehmen wir an, ich nenne
Cricket-Analyst Ameth Bindestrich F und dann Model File
und Also habe ich einfach den
Code von hier genommen. Hier ist er, Olama Mari Hyphen M
kreiert. Ich habe gerade meinen
Modellnamen erwähnt Jetzt schauen wir uns die Moderatorin Entschuldigung, ich habe Offensichtlich. Okay, also Lama
Create ist der Befehl Sie können es von hier aus überprüfen. Erstellen Sie ein Modell
aus einer Modelldatei. Das ist es, was wir tun. Und
ich drücke jetzt einfach die Eingabetaste. Und Sie können den Erfolg sehen. Okay. Okay, jetzt lasse ich es laufen. Unser Modell wurde von OlmaRun
Cricket Analyst Ametho entwickelt, also habe ich gerade Ihr Ath-Modell für
Cricket-Analyst erstellt Drücken Sie die Eingabetaste. Okay, wir lassen
jetzt unser Modell laufen. Der Run-Befehl. Offensichtlich wissen Sie,
dass es hier ist. Sie können alle Befehle mit
dem Olama überprüfen . Das ist es Jetzt drücke ich Enter. Sie können es sehen, wir werden es ausführen. Nun, das ist unser benutzerdefiniertes GPT, das wie unser Assistent ist Jetzt ist Ihr benutzerdefiniertes GPT fertig. Geben Sie Hallo ein, wie geht es
Ihnen heute? Hier können Sie sehen, dass ich Cricket-Analyst bin. Okay, lassen Sie mich
fragen, wie man einen perfekten oder einen
perfekten Cover-Drive spielt. Okay, also der
Lehrassistent oder
Cricket-Assistent antwortet: Okay. Y Also, Leute, auf diese Weise können
Sie ganz einfach
Ihr benutzerdefiniertes GPT erstellen Wir haben einen Lehrassistenten
in Form eines
Cricket-Analysten geschaffen in Form eines
Cricket-Analysten Also hier waren unsere Akten. Denken Sie daran, Indiv inmitten des Projekts, und das war unsere Modelldatei Insider, S-Code. Okay, wir haben gerade
diese Aufforderung hier hinzugefügt, und das war
für mehr Kreativität vorgesehen.
Okay, Temperatur eins. Von Laman Two, das
ist der Modellname und das ist unsere Botschaft Wenn du es nehmen möchtest, kannst
du es vom
offiziellen Github nehmen Und das ist der Code. Das war unsere Modelldatei, und das waren die
Befehle, um sie auszuführen.
12. Entfernen Sie jedes Modell mit Ollama lokal: In diesem Video
erfahren wir, wie Sie
jedes Modell auf Olama lokal entfernen können Lassen Sie uns dazu zum Start gehen
und CMD eingeben und es öffnen. Lassen Sie mich jetzt den Befehl
Olama eingeben und alle
Befehle hier leicht finden Zuerst werde ich alle
Modelle auf diesem System auflisten. Olama Space List. Olmaspace-Liste und drücken Sie die Eingabetaste. Hier sind die beiden Modelle, die wir
installiert haben: Mistro und Lama 3.2. Das erste ist von Mistro und
das zweite ist von Meta. Nun, was ich tun werde, ich
muss es entfernen. Okay, also benutze den RM-Befehl. Oma, Leerzeichen RM und nenne
den Namen des Modells. Sagen wir, ich nenne Mistral. Ich werde Mistral erwähnen
und hier ist der Name. Sie müssen also nur
Mistrl eingeben und auf Center drücken. Wenn Sie Lama eingeben,
müssen Sie auch den Parameter angeben Das bedeutet in diesem Fall, der Name Lama 3.2 ist Okay, lass mich es
deinstallieren, okay? Oma Space RM Space
Lama 3.2 wurde gelöscht. Okay, füllen Sie jetzt die
Lama-Checkliste erneut aus. Sie können sehen, dass nur einer
von ihnen sichtbar ist. Hier ist Mistroll sichtbar weil wir gerade Lama
3.2 gelöscht Also, Leute, auf diese
Weise könnt ihr jedes Modell mit
Lama ganz einfach entfernen Danke, dass du dir das
Video angesehen hast.