tutorial privacy

ZeroClaw + Ollama: rode um agente de IA completamente privado em 5 minutos

ZeroClaws.io

ZeroClaws.io

@zeroclaws

February 25, 2026

6 min de leitura

ZeroClaw + Ollama: rode um agente de IA completamente privado em 5 minutos

Em algum momento, a maioria das pessoas que usa serviços de IA na nuvem tem uma pausa. Você está digitando uma pergunta sobre um sintoma médico, ou redigindo uma mensagem sobre uma situação empresarial delicada, ou pedindo ajuda com código que contém lógica proprietária —e percebe que tudo que você digita está sendo enviado para um servidor que você não controla.

O ZeroClaw e o Ollama juntos respondem a essa questão. Veja como configurar.

Por que vale a pena o esforço de ir local

O benefício óbvio de rodar IA localmente é privacidade: seus prompts e respostas nunca saem da sua máquina. Mas os benefícios menos óbvios costumam ser igualmente convincentes.

Não há custos de API. Serviços de IA na nuvem cobram por token. Para uso pessoal leve, é insignificante. Para uma empresa processando milhares de documentos, ou um desenvolvedor usando um assistente de IA o dia todo, acumula rápido. Um modelo local tem custo marginal zero por consulta.

Não há limites de taxa. Provedores na nuvem limitam requisições para gerenciar carga. Um modelo local roda tão rápido quanto seu hardware permitir, sem filas, sem erros 429 e sem serviço degradado nos horários de pico.

Não há dependência de internet. Um assistente de IA local funciona em aviões, porões, atrás de firewalls corporativos e em ambientes air-gapped onde o acesso à nuvem é proibido.

Passo 1: Instalar o Ollama

O Ollama é a forma mais fácil de rodar grandes modelos de linguagem localmente.

No macOS:

```bash brew install ollama ```

No Linux:

```bash curl -fsSL https://ollama.com/install.sh | sh ```

No Windows, baixe o instalador em ollama.com.

Depois de instalado, baixe um modelo. Para a maioria dos casos de uso, o llama3.1:8b é o ponto de partida certo:

```bash ollama pull llama3.1:8b ```

Se você tem hardware mais limitado, `qwen3:4b` ou `phi3:mini` são opções mais leves.

Passo 2: Instalar o ZeroClaw

```bash brew install zeroclaw ```

Ou no Linux:

```bash curl -fsSL https://raw.githubusercontent.com/zeroclaw-labs/zeroclaw/main/scripts/bootstrap.sh | bash ```

O ZeroClaw é um binário único. Não há mais nada para instalar, nenhum runtime para configurar, nenhuma dependência para gerenciar.

Passo 3: Apontar o ZeroClaw para o Ollama

Edite seu `config.toml` para dizer ao ZeroClaw para usar o Ollama como provedor de IA:

```toml [ai] provider = "ollama" model = "llama3.1:8b" endpoint = "http://localhost:11434" ```

Essa é a única mudança de configuração. O sistema de provedores do ZeroClaw foi projetado para que trocar entre Anthropic, OpenAI, Ollama ou qualquer outro provedor suportado seja uma mudança de uma linha.

Passo 4: Conectar um canal

Adicione o Telegram como interface:

```toml [channels.telegram] token = "YOUR_BOT_TOKEN" allowed_users = [123456789] ```

Inicie o ZeroClaw:

```bash zeroclaw start ```

Mande uma mensagem para o seu bot do Telegram. A resposta vem do Ollama rodando na sua máquina. Nada toca a internet exceto a chamada de API do Telegram para entregar a mensagem —o processamento real de IA é completamente local.

Indo além: modo híbrido

A IA puramente local tem uma limitação real: modelos menores não são tão capazes quanto modelos frontier para tarefas de raciocínio complexo. O modo híbrido do ZeroClaw permite obter o melhor dos dois mundos.

```toml [ai] provider = "ollama" model = "llama3.1:8b"

[ai.fallback] provider = "anthropic" model = "claude-sonnet-4-20250514" trigger = "complexity_threshold" ```

Com essa configuração, perguntas simples são tratadas localmente com custo zero. Tarefas de raciocínio complexo que o modelo local não consegue lidar bem recorrem automaticamente ao Claude. Para a maioria dos usuários, essa abordagem híbrida é o ponto ótimo prático: 80-90% das consultas tratadas localmente de graça.

Em que hardware isso realmente roda

Rodar ZeroClaw + Ollama com llama3.1:8b requer cerca de 6 GB de RAM para o modelo em si, mais um insignificante 4 MB para o ZeroClaw. Uma máquina com 8 GB de RAM consegue rodar o stack completo; 16 GB é confortável.

Um Mac Mini de 200 dólares, um ThinkPad usado de 50 dólares, ou uma máquina que você já tem —qualquer um desses pode rodar um assistente de IA completamente privado 24/7 com zero custos contínuos.

O panorama geral

O resultado é um assistente de IA que não sabe nada sobre você exceto o que você conta, não armazena nada nos servidores de ninguém, e não custa nada para rodar além da eletricidade para manter sua máquina ligada. Para qualquer um que já hesitou antes de digitar algo sensível num chat, isso vale muito.

Fique por Dentro

Receba atualizações sobre novos releases, integrações e infraestrutura de agentes em Rust. Sem spam, cancele quando quiser.