Como instalar o LLaMA 3 no PC com Windows 11?

 Llama 3 é o mais recente modelo de linguagem grande do Meta. Você pode usá-lo para vários propósitos, como resolver suas dúvidas, obter ajuda com seus deveres de casa e projetos escolares, etc. Implantar o Llama 3 em sua máquina Windows 11 localmente ajudará você a usá-lo a qualquer momento, mesmo sem acesso à internet. Este artigo mostra como instalar o Llama 3 em um PC com Windows 11 .

Como instalar o Llama 3 em um PC com Windows 11

Instalar o Llama 3 em um PC com Windows 11 por meio do Python requer habilidades e conhecimento técnico. No entanto, alguns métodos alternativos permitem que você implante o Llama 3 localmente em sua máquina com Windows 11. Vou mostrar esses métodos.

Para instalar o Llama 3 no seu PC com Windows 11, você deve executar alguns comandos no Prompt de Comando. No entanto, isso só permitirá que você use sua versão de linha de comando. Você deve tomar outras medidas se quiser usar sua IU da web. Vou mostrar a você esses dois métodos.Ezóico

Implantar o Llama 3 no PC com Windows 11 via CMD

Para implantar o Llama 3 no seu PC Windows 11, você precisa instalar o Ollama na sua máquina Windows. Os passos para o mesmo são os seguintes:

  1. Visite o site oficial do Ollama .
  2. Clique no botão Download e selecione Windows .
  3. Agora, clique no botão Download para Windows para salvar o arquivo exe no seu PC.
  4. Execute o arquivo exe para instalar o Ollama na sua máquina.
AD
Ezóico

Depois que o Ollama for instalado no seu dispositivo, reinicie o computador. Ele deve estar sendo executado em segundo plano. Você pode vê-lo na bandeja do sistema. Agora, clique na opção Modelos no site do Ollama. Você verá seus diferentes modelos.

O Llama 3.1 está disponível nos três parâmetros a seguir:

Ezóico

  • 8B
  • 70B
  • 405B

O último é o maior parâmetro e obviamente não pode ser executado em um PC de baixo custo. O Llama 3.2 tem os dois parâmetros a seguir:

  • 1B
  • 3B

Clique na versão do Llama que você quer instalar no seu PC. Por exemplo, se você quer instalar o Llama 3.2, clique em Llama 3.2. No menu suspenso, você pode selecionar o parâmetro que você quer instalar. Depois disso, copie o comando ao lado dele e cole-o no prompt de comando.

Para sua conveniência, escrevi ambos os comandos para o modelo Llama 3.2. Para instalar o modelo Llama 3.2 3B, execute o seguinte comando:

ollama run llama3.2:3b

Para instalar o modelo Llama 3.2 1B, use o seguinte comando:

Ezóico

ollama run llama3.2:1b

Abra o Prompt de Comando, digite qualquer um dos comandos acima mencionados (com base em seus requisitos) e pressione Enter . Levará algum tempo para baixar os arquivos necessários. O tempo de download também dependerá da velocidade da sua conexão de internet. Após a conclusão, você verá a mensagem de sucesso no Prompt de Comando.

Agora, digite sua mensagem para usar o modelo Llama 3.2. Se quiser instalar o modelo Llama 3.1, use os comandos disponíveis no site Ollama.

Na próxima vez que você iniciar o Prompt de Comando, use o mesmo comando para executar o Llama 3.1 ou 3.2 no seu PC.

Instalar o Llama 3 pelo CMD tem uma desvantagem. Ele não salva seu histórico de bate-papo. No entanto, se você implantá-lo no host local, seu histórico de bate-papo será salvo e você obterá uma interface de usuário melhor. O próximo método mostra como fazer isso.

Implantar a interface de usuário da Web do Llama 3 no Windows 11

Usar o Llama 3 em um navegador da web fornece uma melhor interface de usuário e também salva o histórico de bate-papo em comparação ao uso na janela CMD. Vou mostrar a você como implementar o Llama 3 em seu navegador da web.

Para usar o Llama 3 no seu navegador, o Llama 3 através do Ollama e o Docker devem estar instalados no seu sistema. Se você ainda não instalou o Llama 3, instale-o usando o Ollama (conforme explicado acima). Agora, baixe e instale o Docker do seu site oficial .

Após instalar o Docker, inicie-o e inscreva-se para criar uma conta. O Docker não será executado até que você se inscreva. Após se inscrever, entre na sua conta no aplicativo Docker. Minimize o Docker para a bandeja do sistema. Os aplicativos Docker e Ollama devem estar em execução em segundo plano. Caso contrário, você não poderá usar o Llama 3 no seu navegador da web.

Agora, abra o Prompt de Comando, copie o seguinte comando e cole-o nele:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

O comando acima levará algum tempo para baixar os recursos necessários. Portanto, tenha paciência. Após a conclusão do comando, abra o Docker e selecione a seção Containers do lado esquerdo. Você verá que um container é criado automaticamente com a porta 3000:8080.

Clique na porta 3000:8080. Isso abrirá uma nova aba no seu navegador padrão. Agora, inscreva-se e faça login para usar o Llama 3 no seu navegador. Se você vir a barra de endereço, verá localhost:3000 lá, o que significa que o Llama 3 está hospedado localmente no seu computador. Você pode usá-lo sem uma conexão com a internet.

Selecione seu modelo de chat Llama no menu suspenso. Se quiser adicionar mais modelos de chat do Llama 3, você precisa instalá-lo via Ollama usando os comandos necessários. Depois disso, o modelo estará automaticamente disponível no seu navegador da web.

Todo o seu histórico de bate-papo será salvo e acessível no lado esquerdo. Quando quiser sair, faça logout da sua sessão no seu navegador da web. Depois disso, abra o aplicativo Docker e clique no botão Stop para parar o Docker. Agora, você pode fechar o Docker.

Quando quiser usar o Llama 3 no seu navegador da web na próxima vez, inicie o Ollama e o Docker, aguarde alguns minutos e clique na porta no contêiner do Docker para abrir o servidor localhost no seu navegador da web. Agora, faça login na sua conta e comece a usar o Llama 3.

Espero que isso ajude.

O Llama 3 pode ser executado no Windows?

Dependendo da configuração de hardware do seu computador, você pode executar o Llama 3 no seu sistema. Seu modelo 1B é o mais leve. Você pode instalá-lo e executá-lo no seu sistema por meio do prompt de comando.

Quanta RAM preciso para o Llama 3?

O modelo mais leve do Llama 3 é o Llama 3.2 1B. Seu sistema deve ter 16 GB de RAM para executar o modelo Llama 3.2 1B. Além disso, seu sistema também deve ter uma GPU de alta resistência. Os modelos mais altos do Llama 3 exigem mais recursos do sistema.

Postar um comentário

Postagem Anterior Próxima Postagem