Ollama Masterclass: corra LLMs localmente | Amit Diwan | Skillshare
Pesquisar

Velocidade de reprodução


1.0x


  • 0.5x
  • 0.75x
  • 1x (Normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Ollama Masterclass: corra LLMs localmente

teacher avatar Amit Diwan, Corporate Trainer

Assista a este curso e milhares de outros

Tenha acesso ilimitado a todos os cursos
Oferecidos por líderes do setor e profissionais do mercado
Os temas incluem ilustração, design, fotografia e muito mais

Assista a este curso e milhares de outros

Tenha acesso ilimitado a todos os cursos
Oferecidos por líderes do setor e profissionais do mercado
Os temas incluem ilustração, design, fotografia e muito mais

Aulas neste curso

    • 1.

      Sobre: introdução do curso

      1:18

    • 2.

      Ollama: introdução e características

      3:43

    • 3.

      Instale o Ollama no Windows 11 localmente

      2:15

    • 4.

      Instale o Llama 3.2 no Ollama Windows 11 localmente

      3:33

    • 5.

      Instale o Mistral 7b no Ollama Windows 11 localmente

      4:17

    • 6.

      Listar os modelos em funcionamento no Ollama localmente

      0:39

    • 7.

      Listar todos os modelos instalados em seu sistema com o Ollama

      0:57

    • 8.

      Exibir as informações de um modelo usando Ollama localmente

      1:16

    • 9.

      Como parar um modelo em andamento em Ollama

      1:10

    • 10.

      Como rodar um modelo já instalado no Ollama localmente

      1:51

    • 11.

      Crie um GPT personalizado ou personalize um modelo com OLLAMA

      8:41

    • 12.

      Remova qualquer modelo com Ollama localmente

      1:31

  • --
  • Nível iniciante
  • Nível intermediário
  • Nível avançado
  • Todos os níveis

Gerado pela comunidade

O nível é determinado pela opinião da maioria dos estudantes que avaliaram este curso. Mostramos a recomendação do professor até que sejam coletadas as respostas de pelo menos 5 estudantes.

43

Estudantes

--

Projeto

Sobre este curso

Bem-vindo ao Ollama Course!

Ollama é uma plataforma de código aberto para baixar, instalar, gerenciar, rodar e implantar modelos de grandes idiomas (LLMs). Tudo isso pode ser feito localmente com Ollama. LLM significa Modelo de Linguagem Grande. Esses modelos são projetados para entender, gerar e interpretar a linguagem humana em alto nível.

Características

  • Biblioteca de modelos: oferece uma variedade de modelos pré-construídos como Llama 3.2, Mistral etc.

  • Personalização: permite que você personalize e crie seus modelos

  • Easy: fornece uma API simples para criar, administrar e gerenciar modelos

  • Entre plataformas: disponível para macOS, Linux e Windows

  • Modelfile: embala tudo o que você precisa para rodar um LLM em um único Modelfile, facilitando o gerenciamento e a operação de modelos

LLMs populares, como Llama by Meta, Mistral, Gemma by DeepMind do Google, Phi pela Microsoft, Qwen by Alibaba Clouse, etc., podem rodar localmente usando o Ollama.

Neste curso, você vai aprender sobre Ollama e como isso facilita o trabalho de um desenvolvedor rodando LLMs. Falamos de como começar com Ollama, instalar e ajustar LLMs como Lama 3.2, Mistral 7b, etc. Também abordamos como personalizar um modelo e criar um assistente de ensino como o ChatBot localmente criando um modefile.

**Lições abordadas**

  1. Ollama: introdução e características

  2. Instale o Ollama Windows 11 localmente

  3. Instale o Llama 3.2 Windows 11 localmente

  4. Instale o Mistral 7b no Windows 11 localmente

  5. Listar todos os modelos rodando no Ollama localmente

  6. Listar os modelos instalados em seu sistema com o Ollama

  7. Mostrar as informações de um modelo usando Ollama localmente

  8. Como parar um modelo em andamento em Ollama

  9. Como rodar um modelo já instalado no Ollama localmente

  10. Crie um GPT personalizado ou personalize um modelo com o Ollama

  11. Remover qualquer modelo do Ollama localmente

Nota: abordamos apenas tecnologias de código aberto

Vamos começar a jornada!

Conheça seu professor

Teacher Profile Image

Amit Diwan

Corporate Trainer

Professor

Hello, I'm Amit,

I'm the founder of an edtech company and a trainer based in India. I have over 10 years of experience in creating courses for students, engineers, and professionals in varied technologies, including Python, AI, Power BI, Tableau, Java, SQL, MongoDB, etc.

We are also into B2B and sell our video and text courses to top EdTechs on today's trending technologies. Over 50k learners have enrolled in our courses across all of these edtechs, including SkillShare. I left a job offer from one of the leading product-based companies and three government jobs to follow my entrepreneurial dream.

I believe in keeping things simple, and the same is reflected in my courses. I love making concepts easier for my audience.

Visualizar o perfil completo

Level: Beginner

Nota do curso

As expectativas foram atingidas?
    Superou!
  • 0%
  • Sim
  • 0%
  • Um pouco
  • 0%
  • Não
  • 0%

Por que fazer parte da Skillshare?

Faça cursos premiados Skillshare Original

Cada curso possui aulas curtas e projetos práticos

Sua assinatura apoia os professores da Skillshare

Aprenda em qualquer lugar

Faça cursos em qualquer lugar com o aplicativo da Skillshare. Assista no avião, no metrô ou em qualquer lugar que funcione melhor para você, por streaming ou download.

Transcrições

1. Sobre o curso: Neste curso em vídeo, aprenda Olama e seus conceitos O Oma é uma plataforma de código aberto para baixar, instalar, gerenciar, executar e implantar grandes modelos de linguagem. Tudo isso pode ser feito localmente com o Olama. LLMs populares, como Lama da Meta, Mistral, Gemma da DeepMind do Google, F da Microsoft, Quin da Alibaba Cloud, podem ser executados localmente usando Alibaba LLM significa grandes modelos de linguagem. Esses modelos são projetados para entender, gerar e interpretar a linguagem humana em alto nível. Eles são treinados em vastos conjuntos de dados e podem realizar tarefas como geração de texto, resumo, tradução e resposta Aqui, o modelo LLM está processando um prompt de entrada e gerando uma resposta como se um prompt fosse digitado no chat Neste curso, abordamos as seguintes lições com exemplos de execução ao vivo. Também mostramos como criar uma GPT personalizada que é um modelo GPT de bate-papo na forma de um assistente Vamos começar com a primeira lição. 2. Ollama: introdução e características: Nesta lição, aprenderemos o que é Oma? É introdução e recursos. Vamos ver. Então lama é basicamente uma plataforma de código aberto que permite ao usuário baixar, instalar, executar e implantar grandes modelos de linguagem, e tudo isso pode ser feito em seu sistema local. Então você deve estar se perguntando o que são LLMs. Portanto, LLM significa grandes modelos de linguagem. Esses são modelos que são basicamente projetados para entender, gerar e interpretar linguagens humanas. OK. Portanto, inclui bilhões de parâmetros. Então você deve ter ouvido falar sobre modelos LLM como Lama, Phi, Gemma, Mistral Portanto, quando os parâmetros aumentam, o desempenho do modelo também melhora. Ok, ele normalmente contém bilhões de parâmetros, permitindo que eles compreendam padrões complexos de linguagem e gerem Ok, então atualmente, temos o Lama 3.2 mistrl seven B. Ok, esses modelos são treinados em vastos conjuntos de dados, como artigos da Internet, livros e outras fontes E esses modelos LLM, quando você faz uma pergunta a eles imediatamente, eles geram uma resposta Ok, então o LLM processa as informações e gera um novo conteúdo para você, é por isso que o chamamos de IA generativa Ok, eu posso realizar tarefas como responder perguntas, traduzir, resumir Ok, ele pode gerar texto para você. Você pode escrever um artigo, blogs, um e-mail a partir dele. OK. Você pode executar esses LLMs usando o Olama Essas são as características do Olama. Ele consiste em uma biblioteca de modelos pré-construída que inclui seu ama by meta, Mistral da MtoAI, seu Phi LLM Ok, eu também permite que você personalize e crie seu modelo. Veremos neste curso como podemos criar nosso próprio modelo. É muito fácil executá-lo e gerenciá-lo. Ele inclui APIs simples. É multiplataforma. Você pode contornar o Olama no Windows localmente no Windows, Mac e Linux. Ok, ele tem um arquivo de modelo. Criaremos um arquivo de modelo mais tarde quando criaremos nosso próprio modelo. Ok, o arquivo de modelo empacota tudo o que você precisa para executar um LLM. Portanto, este é um único arquivo que criaremos e o usaremos para gerenciar e executar nosso modelo. Então, vamos ver o que Oma pode fazer e por que é tão popular. Ele pode permitir que você execute LLMs em seu sistema local. Isso está no seu Windows 10, Windows 11, Mac e Linux. Ok, então essa é uma interpretação básica de Olama do que Olama pode fazer Usando a instalação local do Olama, o que faremos mais tarde. Você pode facilmente baixar, executar, até mesmo implantar e gerenciar seu Lama Gemma Mistral Phi Quin. Todos esses LLMs, Quinn até mesmo implantar e gerenciar seu Lama Gemma Mistral Phi Quin. Todos esses LLMs, Quinn é da Alibaba Cloud. Ok, Pi é da Microsoft, MSTrol é da MiTrol Gamma Ok, Lama é da Meta. Dessa forma, você pode executar facilmente todos esses modelos usando o Olama localmente. Vamos ver isso mais tarde. Então, pessoal, nesse vídeo, vimos o que é Olama? Por que está sendo amplamente utilizado. Quais são suas características? Obrigado por assistir ao vídeo. 3. Instale o Ollama no Windows 11 localmente: Neste vídeo, aprenderemos como instalar o Olama no Windows 11 Olama é uma plataforma de código aberto para baixar, instalar, implantar e executar LLMs Vamos ver como instalar o Olama, acesse o navegador no Google Type, Olama e pressione Enter Ao pressionar Enter, o site oficial fica visível. Clique nele. Agora você pode ver que o site oficial está visível. Queremos a versão para Windows, então vou clicar diretamente aqui. Baixar. Agora o botão de download para Windows está visível. É nisso que precisamos clicar. Clique em download iniciado em 664 MB. Vamos esperar. Nós baixamos o arquivo EXE. Agora, clique com o botão direito do mouse e clique em Abrir para iniciar a instalação. Minimize, clique em Instalar. Agora a configuração será instalada, vamos esperar. E pessoal, instalamos o Olama Agora você pode iniciar o Tipo CMD, clique em Abrir. Agora vamos verificar o tipo Olama e pressionar Enter. Se o seguinte estiver visível, isso significa que instalamos o Olama com sucesso Ok, esses são os comandos disponíveis. Então, dessa forma, pessoal, podemos instalar facilmente o Oma. 4. Instale o Llama 3.2 no Ollama Windows 11 localmente: Neste vídeo, aprenderemos como instalar o ama 3.2 no Windows 11. Então, para isso, primeiro, instalaremos o Olama, que é uma plataforma de código aberto para executar LLMs Em seguida, na segunda etapa, instalaremos o Lama 3.2 no Olama Já instalamos o Olema nos vídeos anteriores. Então, agora vamos instalar diretamente o Lama 3.2. Vamos começar. Agora, usaremos o Olama para instalar nosso Lama 3.2. Para isso, pessoal, precisamos usar o comando. Aqui é executado um modelo, ou seja, execute o comando. Então, basta digitar lama, executar o nome do modelo. Então esse é o Lama 3.2. Você também pode verificar isso. Se você se lembra que abrimos isso, vá até os modelos. Agora, no modelo, você pode ver que estamos instalando o Lama 3.2 da Meta. Clique nele. E aqui, você poderá encontrar o mesmo comando. Vá abaixo. Você pode ver todos os comandos ou detalhes sobre o Lama 3.2, e aqui está, estamos instalando o 3.2, para que você possa comparar o comando a seguir. É o mesmo. OK. Olama Lama, 3.2. É isso mesmo. Você só precisa pressionar Enter e a instalação levará algum tempo. Também mostrará quantos GBs serão baixados. Pressione Enter. Ou você pode ver que está puxando. Aqui são dois GB, então levará algum tempo. Vamos esperar. Gente, agora vocês podem ver que o instalamos . O sucesso é visível. Ok, agora você pode digitar diretamente sua solicitação aqui. Então, digamos que eu pergunte. O que é I generativo? Então , isso me dará uma resposta. Então você instalou o Lama 3.2 com sucesso em seu sistema usando o Olama E você pode perguntar qualquer coisa Então, pessoal, neste vídeo, vimos como podemos instalar o Oma. Instalamos o Lama 3.2 no Olama e também tentamos um prompt Obrigado por assistir ao vídeo. 5. Instale o Mistral 7b no Ollama Windows 11 localmente: Neste vídeo, aprenderemos como podemos instalar o Mistral AI no Windows 11 Então, primeiro, precisamos baixar e instalar Olama, que é uma plataforma de código aberto para executar LLMs Na segunda etapa, instalaremos o Mistral AI. Vamos começar com a primeira etapa. Instalando o Olama. Vamos começar. Já instalamos o Olama nos vídeos anteriores agora para executar seu modelo Mistle AI Você precisa digitar este comando run command. Então, deixe-me digitar. Aqui está Olama run e depois mencione o nome do modelo. Mas queremos o nome exato do modelo. Então, neste mesmo site, acesse modelos. Aqui e você pode pesquisar o modelo que deseja ou pode ir abaixo. Ao descer, você pode ver que Mistral está visível. Ok, queremos os sete B. Vou clicar nele. Ok, então aqui está, e aqui está o comando. Você precisa digitar esse comando. Se você quiser qualquer outra versão, você pode clicar aqui. Mas agora, sete B é o mais recente. Você pode copiar esse comando diretamente ou digitar diretamente Mistral e pressionar enter Levará algum tempo para puxar. Vamos ver quantos GBs. São quatro GB, então levará uma boa quantidade de minutos. Vamos esperar. Agora, aqui você pode ver que é bem-sucedido. É visível. Agora você pode perguntar qualquer coisa diretamente. Digamos, eu vou perguntar, quem é você? Ok, você pode ver, eu sou um grande idioma não treinado por um mestre. Então, deixe-me perguntar o que é Python? Vamos ver a resposta pelo modelo. É isso aí, pessoal, instalamos com sucesso o Miss Trolley. Obrigado por assistir ao vídeo. 6. Listar os modelos em funcionamento no Ollama localmente: Neste vídeo, aprenderemos como podemos listar facilmente os modelos em execução no OlamAF que vão para iniciar, digite CMD Ok, digite Olama e você poderá ver todos os comandos. Então, queremos listar. Então, queremos listar os modelos em execução. Então, vou digitar OLAMaps e pressionar Center. Então esse foi o mais recente Mistral. Ok, dessa forma, você pode listar facilmente o modelo em execução. Obrigado por assistir ao vídeo. 7. Listar todos os modelos instalados em seu sistema com o Ollama: Neste vídeo, veremos como podemos listar os modelos no lama. Isso significa que todos os modelos que instalamos usando o Olama em nosso sistema local Vamos ver como podemos listá-los. Para isso, vá para iniciar, digite CMD, clique em Abrir. Então agora aqui no tipo Olama você pode ver todos os comandos Queremos listar os modelos, não listar os modelos em execução. Queremos apenas listar todos os modelos. Para isso, vou digitar Olama List. É isso mesmo. E centro de imprensa. Então, instalamos dois modelos até agora, Mistral, bem como o Lama 3.2 Então, esses são os modelos visíveis agora porque os instalamos usando o Olama Neste Maguis, você pode listar facilmente os modelos que você instalou usando Obrigado por assistir ao vídeo. 8. Exibir as informações de um modelo usando Ollama localmente: Neste vídeo, veremos como podemos mostrar as informações de um modelo. Instalamos em nosso sistema usando o Oma. Então, no Command Prom, digitamos lama e todos os comandos estão visíveis Então, para mostrar, precisamos usar o comando show. Está bem? No momento, temos dois modelos aqui. Listamos usando o comando Oma space list. Ok, agora digamos que eu queira informações sobre Lama 3.2, tipo de solo, lama, show, Lama 3.2, e vamos ver quais informações são visíveis. Aqui está, todas as informações estão visíveis. Parâmetros de arquitetura de 3,2 bilhões, todos sabemos, o comprimento do contexto e a quantização para otimização são visíveis e as licenças Dessa forma, pessoal, também podemos conferir nosso segundo. Isso significa show de lama. Então, senhorita troll E deixe-me verificar novamente. É a Srta. Troll, certo, Centro de Oração. E aqui estão as informações. Foi para 7,2 bilhões de parâmetros e o comprimento do contexto e o comprimento da incorporação. Com a quantização também é visível e a licença Então, pessoal, vimos como podemos mostrar as informações de um modelo com o Ulama Obrigado por assistir ao vídeo. 9. Como parar um modelo em andamento em Ollama: Neste vídeo, aprenderemos como parar nosso modelo em execução em Olama Ok, então aqui você pode ver que executamos nosso modelo novamente. Ok, Olama execute o Lama 3.2. Também podemos verificar isso usando o comando list running models, comando ps. Então, quando eu digito OlamaSpacps, ele mostra que mostra o Lama 3.2 Aqui está, está visível porque o estávamos executando atualmente. Aqui está, estou mostrando novamente que o Lama 3.2 estava em execução. Ok, agora precisamos parar com isso. Para esse tipo de lama, pare. E o mesmo comando também está visível aqui. Você pode digitar lama aqui. Pressione Enter e todos os comandos estarão visíveis. Esse é o comando stop. Pare ou execute o modelo. Agora mencione o nome do modelo que você precisa parar. Esse é o Lama 3.2 e pressione Enter. Agora é parar. Você pode verificar novamente usando o comando lama Ps, lama space ps, e nada ficará visível. Agora, um modelo stop D em execução. Usando o comando stop, obrigado por assistir ao vídeo. 10. Como rodar um modelo já instalado no Ollama localmente: Neste feed, aprenderemos como podemos executar localmente um modelo já instalado no Olama Para isso, vá para iniciar o Tipo CMD. Clique em abrir. Então aqui está agora o Tipo Oma. Ok. Então, primeiro, listaremos os modelos que já instalamos aqui, então digite Olama e o comando list Ok. Apresentador e você pode ver que instalamos dois deles. Agora, nenhum deles está em execução, devemos verificar também listar os modelos em execução. Vamos ver quais estão executando PSPs Oma para modelos em execução de listas Vou pressionar Enter e você pode ver que nenhum deles está em execução no momento. Então, o que eu vou fazer é executá-lo primeiro. Agora, digamos que eu execute o Lama 3.2 para isso. Use o comando Executar um modelo. Isso significa que vou digitar Olamarun Lama 3.2. Precisamos mencionar os parâmetros também exatamente 3.2, pressione Enter. Agora ele o executará novamente e ele será iniciado. Ok. Agora você pode digitar qualquer coisa, e digamos que então começamos com Lama. Vou digitar algo como um prompt. Ok. Dessa forma, você pode executar novamente seus modelos LLM no Ulama usando o comando run Obrigado por assistir ao vídeo. 11. Crie um GPT personalizado ou personalize um modelo com OLLAMA: Neste vídeo, aprenderemos como podemos criar um GBT personalizado ou digamos, personalizar um modelo com o Oma Então, no Google Type, Olama e Prey Center, clique aqui Aqui está o site oficial. Já baixamos o Olama. Ok, agora vá para o Github, seu Github oficial. Aqui em Go below. E aqui você pode ver como personalizar um modelo. Está bem? Precisamos criar esse arquivo de modelo. Criaremos no código VS e, em seguida, criaremos um modelo e também executaremos o modelo posteriormente com nosso nome. Ok, primeiro criaremos um arquivo de modelo. Então, vamos fazer isso. do código VS para isso, primeiro vamos instalar. Vamos começar Primeiro, acesse o navegador da web no Google Type VS Code e pressione Enter. Agora, o site oficial está visível code.visualstudio.com Clique nele. Agora você pode ver que a versão está visível. Você pode clicar diretamente em Dwload aqui, e aqui estão as versões para Windows, Linux e Mac. Vou clicar aqui. E agora o código VS será baixado. Aqui está o arquivo do instalador. Vamos esperar. Agora, clique com o botão direito do mouse e clique em Abrir para iniciar a instalação, minimizar, aceitar o contrato e clicar em Avançar. Serão necessários 373 MB. Clique em Avançar. Clique em Avançar. Ele também criará uma pasta do Menu Iniciar. Se você quiser criar um ícone do Dextrop, você pode clicar aqui, mas eu não vou criá-lo, então clique em Avançar. Agora clique em Instalar. Pessoal, instalamos o VSCode com sucesso. Vou clicar em Concluir, mas vou desmarcar isso para poder abri-lo de outro lugar. Clique em Concluir. Então, pessoal, instalamos o VSCode com sucesso, vamos abri-lo. Vá para iniciar, digite VSCode e abra-o. Agora, pessoal, vou clicar aqui e abrir uma pasta. Digamos que minha pasta esteja na unidade D. Vou criar uma nova pasta, projeto Amit. Ok. Vou clicar e clicar em Selecionar pasta. Como eu confio. Agora, clique com o botão direito, crie um novo arquivo, chame-o de arquivo modelo. Ok, aqui está. Agora você pode ver aqui que criamos um arquivo de modelo. Código, basta copiá-lo e colá-lo lá. Ok, eu colei e também fiz algumas alterações Então, em vez desse assistente de equipe de Mario, acabei de mencionar que você é analista de críquete. Responda apenas como assistente do Amid Demand, você sabe jogar críquete, treinar outros jogadores de críquete e todos os termos relacionados ao Ok, arquivo, salve. Agora, clique com o botão direito do mouse e copie o caminho, minimize. Ok. Vá para a hora de início do CMD e clique em Abrir Agora você pode ver seus modelos, quais modelos estão em execução? Falty Yeolama Vou verificar os modelos usando o PS Command, centro de imprensa do lama Ps e você pode ver nosso Lama 3.2 está funcionando. Ok, aqui está. Agora vou chegar ao caminho, clicar com o botão direito do mouse e colar. Aqui está, é o nosso drive D. Eu também posso fazer isso diretamente dois pontos e estamos dentro do D Drive. Agora faça DIR no CMD e você terá um projeto Amit Espaço no CD do projeto Smith, e você está dentro da sua pasta Aqui está. Digite o comando create. Você precisa mencionar o nome do seu modelo. Digamos que eu mencione o analista de críquete Ameth hífen F e, em seguida, o arquivo de modelo e Então, acabei de pegar o código daqui. Aqui está, Olama criou Mari Hyphen M. Acabei de mencionar o nome do meu modelo Agora vamos ver o apresentador Desculpe, acabei de perder Olama Obviamente. Ok, então lama create é o comando. Você pode verificar isso aqui. Crie um modelo a partir de um arquivo de modelo. Isso é o que estamos fazendo. E vou pressionar Enter agora. E você pode ver o sucesso. Ok. Ok, então agora eu vou executá-lo. Nosso modelo foi criado pelo analista de críquete OlmaRun, Ametho, então acabei de criar seu modelo Ath de analista então acabei de criar Pressione Enter. Ok, então estamos executando nosso modelo agora. O comando Executar. Obviamente, você sabe que aqui está. Você pode verificar todos os comandos usando o Olama. É isso mesmo. Agora vou pressionar Enter. Você pode ver, nós vamos executá-lo. Agora, este é nosso GPT personalizado, que é como nosso assistente Agora seu GPT personalizado está pronto. Digite Oi, como você está hoje? Aqui, você pode ver que sou analista de críquete Ok, então deixe-me perguntar como jogar um perfeito ou jogar um cover drive perfeito. Ok, então o assistente de ensino ou assistente de críquete responde E Então, pessoal, dessa forma, você pode criar facilmente seu GPT personalizado Criamos um assistente de ensino na forma de analista de críquete. Então, aqui estavam nossos arquivos. Lembre-se, Indiv em meio ao projeto, e esse era nosso arquivo de modelo Insider, código S. Ok, acabamos de adicionar esse prompt aqui, e isso foi configurado para mais criatividade. Ok, temperatura um. Do Lamã dois, esse é o nome do modelo e essa é a nossa mensagem Se você quiser fazer isso, pode obtê-lo no Github oficial E esse é o código. Esse era o nosso arquivo de modelo, e esses eram os comandos para executá-lo. 12. Remova qualquer modelo com Ollama localmente: Neste vídeo, aprenderemos como remover qualquer modelo no Olama localmente Para isso, vamos começar e digitar CMD, abri-lo. Agora deixe-me digitar o comando Olama e encontrar todos os comandos aqui facilmente Primeiro, listarei todos os modelos desse sistema. Lista espacial de Olama. Liste Olmaspace e pressione enter. Aqui estão os dois modelos em que instalamos o mistro e o Lama 3.2. A primeira é da mistro e a segunda é da Meta. Agora, o que eu vou fazer é removê-lo. Ok, então use o comando RM. Oma space RM e mencione o nome do modelo. Digamos que eu mencione Mistral. Vou mencionar Mistral e aqui está o nome. Então, você precisa apenas digitar mistrl e pressionar center. Se você digitar Lama, também precisará mencionar o parâmetro. Isso significa que, nesse caso, o nome é Lama 3.2. Ok, então deixe-me desinstalá-lo, ok? Oma space RM space Lama 3.2 excluído. Ok, agora preencha a lista de verificação do Lama novamente. Você pode ver que apenas um deles está visível. Aqui está o erro que está visível porque acabamos de excluir o Lama 3.2 Então, pessoal, dessa forma, você pode remover facilmente qualquer modelo com o lama. Obrigado por assistir ao vídeo.