IA

COMO TER O SEU PRÓPRIO CHATGPT NO SEU COMPUTADOR

Neste guia, vamos ensinar como instalar o Ollama e o Llama3.3 no Windows utilizando o Windows Subsystem for Linux (WSL). Essa abordagem é ideal para quem quer aproveitar o poder do Linux sem abrir mão do Windows. Além disso, incluímos curiosidades e dicas para otimizar sua experiência.


A Inteligência Artificial está em alta, e ferramentas como o Ollama e o Llama3.3 estão revolucionando a forma como interagimos com modelos de linguagem. Enquanto o Ollama é uma interface simples e poderosa para gerenciar modelos de IA, o Llama3.3 é um modelo de linguagem robusto, ideal para aplicações que exigem alto desempenho.

Vamos aprender como instalar essas ferramentas no seu sistema Windows utilizando o WSL, um recurso que permite rodar um ambiente Linux diretamente no Windows.

Link do Vídeo no Youtube

Requisitos Pré-Instalação

  • Sistema Operacional: Windows 10/11 com suporte ao WSL ou Linux Ubuntu (à partir do passo 3)
  • Memória RAM: Mínimo de 8 GB (recomendado 16 GB ou mais).
  • Espaço em Disco: Pelo menos 10 GB livres.
  • Python: Versão 3.8 ou superior.
  • GPU (opcional): Para aceleração de IA, uma placa de vídeo NVIDIA é recomendada.

Passo 1: Ativar o WSL

Para ativar o WSL, abrimos o Terminal do Windows em modo Administrador, em seguida utilizamos o seguinte comando:

wsl --install

Passo 2: Instalar uma Distribuição Linux

Escolha e instale uma distribuição Linux pelo Microsoft Store. Recomendamos o Ubuntu.

  1. Abra a Microsoft Store.
  2. Procure por “Ubuntu” e clique em “Obter”.
  3. Após a instalação, abra o Ubuntu e configure um nome de usuário e senha.

Passo 3: Atualizar o Sistema Linux

Após configurar o Ubuntu no WSL, atualize o sistema:

sudo apt update && sudo apt upgrade -y

Passo 4: Instalar o Ollama

Utilize o seguinte comando:

curl -fsSL https://ollama.com/install.sh | sh

Passo 5: Instalar Docker

Site oficial, seguir com esses comandos:

# Add Docker's official GPG key:
sudo apt-get update
sudo apt-get install ca-certificates curl
sudo install -m 0755 -d /etc/apt/keyrings
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc
sudo chmod a+r /etc/apt/keyrings/docker.asc

# Add the repository to Apt sources:
echo \
  "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://download.docker.com/linux/ubuntu \
  $(. /etc/os-release && echo "$VERSION_CODENAME") stable" | \
  sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
sudo apt-get update

Em seguida:

sudo apt-get install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin

Passo 6: Instalar OpenWebUI

OpenWebUI é uma interface utilizada para acessar o Ollama.

Utilizamos o comando à seguir:

sudo docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Passo 8: Acessando o OpenWebUI

Teste se tudo está funcionando corretamente:

http://127.0.0.1:8080

Se visualizar uma interface ou resposta do modelo, parabéns! Sua instalação foi bem-sucedida.

Curiosidades

  • O WSL oferece o melhor dos dois mundos: a flexibilidade do Linux e a praticidade do Windows.
  • O Ollama foi projetado para ser amigável a desenvolvedores iniciantes e experientes.
  • O Llama3.3 é conhecido por sua capacidade de gerar respostas mais humanas em comparação a outros modelos.

Conclusão

Com este guia, você aprendeu como instalar o Ollama e o Llama3.3 no Windows utilizando o WSL. Agora, você está pronto para explorar todo o potencial dessas ferramentas. Não esqueça de compartilhar este tutorial com outros entusiastas de tecnologia!