数年前、AIのセルフホスティングは3,000ドルのワークステーションで7Bパラメーターモデルを動かし、各レスポンスを30秒待つことを意味していた。ホビイストの演習であり、クラウドサービスの実用的な代替ではなかった。
それは変わった。より良い量子化技術、より効率的なモデル、OllamaのようなツールがローカルなAIをコンシューマーハードウェアで本当に使えるものにした。そしてZeroClawの4MBフットプリントはエージェントランタイム自体がリソース要件にほとんど何も追加しないことを意味する。
2026年、AIのセルフホスティングはデータ主権、GDPRコンプライアンス、企業IPの保護、そしてツールを借りるのではなく所有したいというシンプルな欲求という実際の懸念から生まれる実用的な選択だ。完全なスタックの構築方法を説明しよう。
3つのコンポーネント
アーキテクチャは3つのツールで、それぞれが一つのことをうまくやる。
ZeroClawはAIエージェントランタイムだ。チャットチャンネル全体のメッセージルーティングを処理し、ローカルSQLiteデータベースで会話メモリを管理し、エージェントがアクションを取る必要があるときにツールを実行する。4MBのRAMを使い、シングルバイナリとして出荷される。すべてをつなぐ結合組織だ。
OllamaはローカルLLMサーバーだ。オープンウェイトモデルをダウンロードして管理し、量子化を自動的に処理し、ZeroClawが話しかけ方を知っているシンプルなAPIを公開する。モデルフォーマット、量子化レベル、推論最適化を理解する必要はない。`ollama pull llama3.1:8b`を実行すれば動く。
Tailscaleはセキュアなネットワーキングレイヤーだ。デバイス間に暗号化されたWireGuardメッシュを作成し、インターネットにポートを公開せずに世界中どこからでもAIアシスタントにアクセスできる。ダイナミックDNSなし、ファイアウォールルールなし、管理するVPNサーバーなし。
これら3つのツールを組み合わせると、どのデバイスからでも動作し、ネットワーク外にデータが出ない完全プライベートなAIアシスタントができる。
ハードウェアの選択
バジェット端(50〜100ドル)では、8GBのRAMを持つRaspberry Pi 5が1.5B〜4Bパラメーター範囲の小さなモデルを動かせる。レスポンスタイムはクラウドサービスより遅いが、フロンティアレベルの推論を必要としないシンプルなクエリとタスクには十分機能する。16GBのRAMを持つ古いラップトップは7B〜8Bパラメーターモデルをそこそこうまく処理する。
ミッドレンジ(200〜400ドル)では、Mac Mini M2は難しい。静かで、最小限の電力を消費し、8B〜13Bパラメーターモデルを快適に処理し、Apple Siliconのユニファイドメモリアーキテクチャは推論に特に効率的だ。32GBのRAMを持つ中古ThinkPadは13Bモデルをうまく動かすポータブルな代替だ。
最高のパフォーマンス(500ドル以上)では、NVIDIA RTX 3060以上を持つマシンが大きなモデルで高速推論を提供する。Mac Studio M2 Ultraは70Bパラメーターモデルを快適に動かせる——そのレベルでは、ローカルモデルの品質はほとんどのタスクでフロンティアクラウドモデルに近づく。
ステップ1:Ollamaをセットアップ
```bash curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3.1:8b # 品質/速度のベストバランス ollama pull qwen3:8b # 強力な多言語サポート ollama pull deepseek-r1:7b # 推論タスクに最適 ```
次に進む前に動作確認:`ollama run llama3.1:8b "Hello"`。レスポンスが返ってきたら、Ollamaの準備完了。
ステップ2:ZeroClawをインストールして設定
```bash curl -fsSL https://raw.githubusercontent.com/zeroclaw-labs/zeroclaw/main/scripts/bootstrap.sh | bash ```
`~/.config/zeroclaw/config.toml`を設定:
```toml [ai] provider = "ollama" model = "llama3.1:8b" endpoint = "http://localhost:11434"
[memory] backend = "sqlite" path = "~/.local/share/zeroclaw/memory.db"
[channels.telegram] token = "YOUR_BOT_TOKEN" allowed_users = [123456789] ```
`zeroclaw start`で起動。この時点でローカルネットワークからのみアクセスできる動作するプライベートAIアシスタントができている。次のステップでそれを修正する。
ステップ3:Tailscaleでセキュアなリモートアクセス
Tailscaleはデバイス間に暗号化されたWireGuardメッシュを作成する。セットアップはシンプル:
```bash # AIサーバーで curl -fsSL https://tailscale.com/install.sh | sh sudo tailscale up
# TailscaleのIPを確認 tailscale ip -4 ```
スマートフォンとラップトップにもTailscaleをインストール。すべてのデバイスが同じTailscaleネットワークに入ったら、自宅WiFi、モバイルデータ、カフェのネットワーク、企業ネットワークなど、どんなインターネット接続でも安全に互いにアクセスできる。インターネットに公開されたポートなし、設定するファイアウォールルールなし。
TelegramボットはTelegramのサーバーがメッセージをリレーするのでどこからでも動く。TailscaleはZeroClawのAPIやWebゲートウェイへの自分のデバイスからの直接アクセス用だ。
実際に何が得られるか
このスタックの実際の結果は、クラウドサービスのように動作するがハードウェア上で完全に動くAIアシスタントだ。プロンプトとレスポンスはネットワークから出ない。会話履歴はマシン上のSQLiteファイルに保存される——いつでもバックアップ、移動、検査、削除できる。規制産業にいるなら、データは管轄区域から出ない。独自コードに取り組んでいるなら、サードパーティのサーバーに触れない。
コスト比較は明確だ。ChatGPT PlusとClaude Proはどちらも1人あたり月20ドル。Raspberry Pi 5でのセルフホスティングは電気代で月約2ドル。Mac Miniで約5ドル。1年で1人あたり180〜230ドルの節約になり、完全なデータ所有権が得られる。
メンテナンスは最小限だ。ZeroClawはシングルコマンドで更新される。Ollamaは`ollama pull`でモデルを更新する。Tailscaleはデフォルトで自動更新される。状態全体は2つのファイルだ:`memory.db`と`config.toml`。それらをバックアップすれば、新しいハードウェアでセットアップ全体を数分で復元できる。
このスタックが向いている人
このセットアップは、コードがサードパーティのサーバーを通ることを望まない独自コードベースに取り組む開発者に最も意味がある。機密な顧客データを扱う中小企業。コンプライアンス要件を持つ医療・法律の専門家。データがどこに行くかを慎重に考え、自宅に置いておくことを決めた人。
ツールは成熟しており、セットアップには約15分かかり、結果は完全に自分のものであるAIアシスタントだ。唯一問う価値のある質問は、なぜまだクラウドバージョンにデータを送り続けているのかだ。