Há alguns anos, hospedar IA localmente significava rodar um modelo de 7 bilhões de parâmetros numa estação de trabalho de 3.000 dólares e esperar 30 segundos por cada resposta. Era um exercício de hobbyist, não uma alternativa prática aos serviços na nuvem.
Isso mudou. Em 2026, hospedar IA localmente é uma escolha prática impulsionada por preocupações reais: soberania de dados, conformidade com LGPD/GDPR, proteção de propriedade intelectual corporativa e o simples desejo de possuir suas ferramentas em vez de alugá-las. Veja como montar o stack completo.
Os três componentes
A arquitetura são três ferramentas, cada uma fazendo uma coisa bem.
ZeroClaw é o runtime do agente de IA. Gerencia o roteamento de mensagens pelos seus canais de chat, administra a memória de conversa num banco de dados SQLite local e executa ferramentas quando seu agente precisa agir. Usa 4 MB de RAM e é distribuído como um binário único.
Ollama é o servidor LLM local. Baixa e gerencia modelos de código aberto, lida com quantização automaticamente e expõe uma API simples que o ZeroClaw sabe usar. Você roda `ollama pull llama3.1:8b` e funciona.
Tailscale é a camada de rede segura. Cria uma malha WireGuard criptografada entre seus dispositivos, para que você possa acessar seu assistente de IA do celular ou notebook em qualquer lugar do mundo sem expor nenhuma porta à internet.
Juntas, essas três ferramentas formam um assistente de IA completamente privado que funciona de qualquer dispositivo, com zero dados saindo da sua rede.
Escolhendo seu hardware
Na faixa econômica (50-100 USD), uma Raspberry Pi 5 com 8 GB de RAM consegue rodar modelos pequenos na faixa de 1,5-4 bilhões de parâmetros. Um notebook antigo com 16 GB de RAM lida bem com modelos de 7-8 bilhões de parâmetros.
Na faixa média (200-400 USD), um Mac Mini M2 é difícil de superar. É silencioso, consome energia mínima e lida confortavelmente com modelos de 8-13 bilhões de parâmetros.
Para melhor desempenho (500+ USD), qualquer máquina com uma NVIDIA RTX 3060 ou melhor dá inferência rápida em modelos grandes.
Passo 1: Configurar o Ollama
```bash curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3.1:8b ollama pull qwen3:8b ollama pull deepseek-r1:7b ```
Verifique que funciona antes de continuar: `ollama run llama3.1:8b "Hello"`.
Passo 2: Instalar e configurar o ZeroClaw
```bash curl -fsSL https://raw.githubusercontent.com/zeroclaw-labs/zeroclaw/main/scripts/bootstrap.sh | bash ```
Configure `~/.config/zeroclaw/config.toml`:
```toml [ai] provider = "ollama" model = "llama3.1:8b" endpoint = "http://localhost:11434"
[memory] backend = "sqlite" path = "~/.local/share/zeroclaw/memory.db"
[channels.telegram] token = "YOUR_BOT_TOKEN" allowed_users = [123456789] ```
Passo 3: Acesso remoto seguro com Tailscale
```bash curl -fsSL https://tailscale.com/install.sh | sh sudo tailscale up
tailscale ip -4 ```
Instale o Tailscale no seu celular e notebook também. Uma vez que todos os seus dispositivos estejam na mesma rede Tailscale, eles conseguem se comunicar com segurança por qualquer conexão à internet.
O que você realmente ganha
O resultado prático desse stack é um assistente de IA que se comporta como um serviço na nuvem mas roda completamente no seu hardware. Seus prompts e respostas nunca saem da sua rede. O histórico de conversa fica num arquivo SQLite na sua máquina.
A comparação de custos é contundente. ChatGPT Plus e Claude Pro custam 20 USD/mês por pessoa. Hospedar localmente numa Raspberry Pi 5 custa cerca de 2 USD/mês em eletricidade. Num Mac Mini, cerca de 5 USD/mês.
Para quem é esse stack
Essa configuração faz mais sentido para desenvolvedores trabalhando em bases de código proprietárias. Para pequenas empresas lidando com dados sensíveis de clientes. Para profissionais de saúde e direito com requisitos de conformidade. Para qualquer um que tenha pensado cuidadosamente sobre onde seus dados vão e decidiu que prefere mantê-los em casa.