How to Deploy Ollama, Open WebUI, and AUTOMATIC1111 Stable Diffusion via Docker on a VPS (CPU‑Only)

Como implantar Ollama, Open WebUI e AUTOMATIC1111 Stable Diffusion via Docker em um VPS (somente CPU)

Como implantar Ollama, Open WebUI e AUTOMATIC1111 Stable Diffusion via Docker em um VPS (somente CPU)

Por Pedro Martins, 20 de abril de 2025


Nunca foi tão fácil executar sua própria pilha de IA privada na nuvem, mesmo sem uma GPU. Nesta publicação, vou explicar como implementar:

  • Ollama para inferência LLM (por exemplo, LLaMA 3)
  • Abra o WebUI como uma interface de bate-papo elegante baseada em navegador
  • AUTOMATIC1111 Stable Diffusion WebUI para geração de texto para imagem

Tudo em um Ubuntu VPS (22.04+) com Docker e Docker Compose, apenas na CPU .


Pré-requisitos

Antes de começar, certifique-se de ter:

  • Um VPS Ubuntu 22.04 (ou mais recente)
  • Docker e Docker Compose instalados
  • Portas 11434, 3000 e 7860 abertas no seu firewall
  • acesso root ou um usuário com privilégios sudo

Etapa 1: instalar o Docker e o Docker Compose

sudo apt update && sudo apt install -y docker.io curl git

 # If docker-compose plugin isn't available, install manually:
 sudo curl -L "https://github.com/docker/compose/releases/latest/download/docker-compose-$(uname -s)-$(uname -m)" \
 -o /usr/local/bin/docker-compose
 sudo chmod +x /usr/local/bin/docker-compose

Verifique se ambos estão instalados:

 docker --version
 docker-compose --version

Etapa 2: implantar Ollama + abrir WebUI

  1. Criar um diretório de projeto

     mkdir ~/ollama-webui && cd ~/ollama-webui
    
  2. Crie um docker-compose.yml

     nano docker-compose.yml
    
  3. Cole o seguinte :

     version: "3.8"
    
     services:
     ollama:
     image: ollama/ollama
     container_name: ollama
     ports:
     - "11434:11434"
     networks:
     - ollama-net
     restart: always
    
     open-webui:
     image: ghcr.io/open-webui/open-webui:main 
    nome_do_contêiner: open-webui
     portas:
     - "3000:8080"
     ambiente:
     - OLLAMA_API_BASE_URL=http://ollama:11434
     depende_de:
     - ollama
     redes:
     - ollama-net
     reiniciar: sempre
    
     redes:
     ollama-net:
     motorista: ponte
    
  4. Inicie a pilha

     docker-compose up -d
    
  5. Acesse a interface
    Abra seu navegador em http://<YOUR_VPS_IP>:3000


Etapa 3: Baixe o modelo LLaMA 3

Com os contêineres em execução, extraia o modelo de 8 bilhões de parâmetros:

 docker exec -it ollama ollama pull llama3:8b

Ollama armazenará em cache localmente para inferência.


Etapa 4: Instalar AUTOMATIC1111 Stable Diffusion WebUI (modo CPU)

  1. Criar um novo diretório

     mkdir ~/sd && cd ~/sd
    
  2. Adicione seu docker-compose.yml

     nano docker-compose.yml
    
  3. Use esta configuração :

    version: '3.8'
    
     services:
     sd-webui:
     image: goolashe/automatic1111-sd-webui
     container_name: sd-webui
     ports:
     - "7860:7860"
     volumes:
     - ./outputs:/stable-diffusion-webui/outputs
     environment:
     - CLI_ARGS=--skip-torch-cuda-test --no-half --use-cpu all --precision full --lowvram
     restart: always
    
  4. Comece

     docker-compose up -d
    
  5. Navegue até http://<YOUR_VPS_IP>:7860


Etapa 5: Teste um prompt

Na interface do usuário Stable Diffusion, tente um prompt leve para um desempenho mais rápido da CPU:

 a futuristic city at night, cyberpunk style, neon lights, rain, 512x512

Dica: use 512×512 ou menor para manter tempos de geração razoáveis.


Etapa 6: acesse suas imagens

Todas as imagens geradas vão para ~/sd/outputs . Você pode:

  • Baixar via SFTP/SCP
  • Sirva-os com uma galeria Nginx leve

Conclusão

Parabéns! 🎉 Agora você tem um playground de IA auto-hospedado:

  • Converse com LLaMA 3 via Open WebUI
  • Gerar imagens com difusão estável
  • Seguro , privado e totalmente sob seu controle

Sinta-se à vontade para compartilhar esta publicação ou adaptar a configuração para seus próprios projetos. Boa auto-hospedagem!

Voltar para o blogue
  • ChatGPT Uncovered Podcast

    Podcast descoberto do ChatGPT

    Pedro Martins

    Podcast descoberto do ChatGPT Podcast descoberto do ChatGPT Explorando as fronteiras dos modelos de conversação de IA Episódio 1: Compreendendo o ChatGPT Publicado em: 15 de maio de 2023 Seu...

    Podcast descoberto do ChatGPT

    Pedro Martins

    Podcast descoberto do ChatGPT Podcast descoberto do ChatGPT Explorando as fronteiras dos modelos de conversação de IA Episódio 1: Compreendendo o ChatGPT Publicado em: 15 de maio de 2023 Seu...

  • Power Apps In-Depth Podcast

    Podcast detalhado do Power Apps

    Pedro Martins

    Podcast detalhado do Power Apps Podcast detalhado do Power Apps Explorando os recursos do Microsoft Power Apps Episódio 1: Introdução ao Power Apps Publicado em: 20 de abril de 2023...

    Podcast detalhado do Power Apps

    Pedro Martins

    Podcast detalhado do Power Apps Podcast detalhado do Power Apps Explorando os recursos do Microsoft Power Apps Episódio 1: Introdução ao Power Apps Publicado em: 20 de abril de 2023...

  • Exploring Power Pages Podcast

    Explorando o podcast Power Pages

    Pedro Martins

    Explorando o podcast Power Pages Explorando o podcast Power Pages Mergulhando no mundo das Power Pages da Microsoft Episódio 1: Primeiros passos com Power Pages Publicado em: 10 de março...

    Explorando o podcast Power Pages

    Pedro Martins

    Explorando o podcast Power Pages Explorando o podcast Power Pages Mergulhando no mundo das Power Pages da Microsoft Episódio 1: Primeiros passos com Power Pages Publicado em: 10 de março...

1 de 3