tutorial edge raspberry-pi

ZeroClaw × Raspberry Pi 5 + AI HAT+ 2:2万円台で40TOPSのエッジAIエージェントを作る

ZeroClaws.io

ZeroClaws.io

@zeroclaws

January 16, 2026

8 分で読める

ZeroClaw × Raspberry Pi 5 + AI HAT+ 2:2万円台で40TOPSのエッジAIエージェントを作る

1月15日、Raspberry PiがAI HAT+ 2をリリースした。Pi 5のPCIeコネクタに接続するこのアドオンボードは、Hailo-10Hアクセラレータと8GBの専用LPDDR4Xメモリを搭載している。スペックを見ると、初代AI HATとは完全に別カテゴリの製品だ:INT4推論で40TOPS。量子化された8Bパラメータモデルを会話できる速度で動かせるだけの性能がある。

これでエッジAIエージェントの計算が根本的に変わった。初代HATのPi 5は物体検出や単純な分類ができた程度だった。HAT+ 2を載せたPi 5は、実際に思考する言語モデルを動かせる。

ZeroClawの3.4MBバイナリは、まさにこの種のハードウェアのために設計された。組み合わせ方を説明する。

必要なもの

ハードウェアリストはシンプルだ:

  • Raspberry Pi 5(4GBまたは8GBモデル)— 60〜80ドル
  • Raspberry Pi AI HAT+ 2 — 130ドル
  • MicroSDカード(32GB以上)またはM.2 HAT経由のNVMe SSD — 10〜30ドル
  • USB-C電源(27W推奨)— 12ドル
  • 換気が十分なケース(HAT+ 2は負荷時に熱くなる)

合計:小売価格で約220ドル。Pi 5を既に持っていたり安く買えれば200ドル以下。

比較対象として、同等の推論性能を持つ最安のNVIDIA JetsonはOrin Nanoの499ドル。RTX搭載ミニPCは600ドル以上から。Pi + HAT+ 2の組み合わせは、手のひらに収まるフォームファクタで40TOPSを実現する。

Piのセットアップ

Raspberry Pi OS(64ビット、Bookworm)のクリーンインストールから始める。AI HAT+ 2にはカーネル6.6以上とHailoランタイムパッケージが必要だ。

```bash sudo apt update && sudo apt full-upgrade -y sudo reboot ```

再起動後、Hailoランタイムをインストール:

```bash sudo apt install hailo-all ```

これでHailo RTドライバ、HailoRTライブラリ、TAPPASフレームワークが入る。アクセラレータが認識されているか確認:

```bash hailortcli fw-control identify ```

Hailo-10Hがファームウェアバージョンとシリアル番号付きで表示されるはずだ。デバイスが見つからない場合は、HAT+ 2がPCIeコネクタにしっかり差さっているか、64ビットOSを使っているか確認しよう。

ZeroClawのインストール

ZeroClawは一行でインストールできる:

```bash curl -fsSL https://raw.githubusercontent.com/zeroclaw-labs/zeroclaw/main/scripts/bootstrap.sh | bash ```

バイナリは数秒でダウンロードされる——3.4MBだ。ARM64では、ZeroClawはmuslでコンパイルされた完全静的バイナリで、システム依存関係はゼロ。Node.jsもPythonランタイムも依存関係地獄もない。

インストールを確認:

```bash zeroclaw --version zeroclaw doctor ```

doctorコマンドは必要なシステムコンポーネントをチェックし、問題があれば報告する。

Ollamaでローカルモデルをインストール

OllamaはモデルのダウンロードとOpenAI互換APIを管理し、ZeroClawがネイティブで通信できる:

```bash curl -fsSL https://ollama.com/install.sh | sh ```

モデルをプルする。Pi 5 + AI HAT+ 2での2026年の実用的な選択肢:

汎用会話(推奨スタート地点): ```bash ollama pull llama3.1:8b ```

コーディング支援: ```bash ollama pull qwen2.5-coder:7b ```

軽いタスクの超高速レスポンス: ```bash ollama pull gemma3:4b ```

8BモデルはHAT+ 2の8GBメモリのうち約5〜6GBを使い、ランタイム用の余裕が残る。4Bモデルはよりキビキビ動く——8Bクラスの12〜15トークン/秒に対して20以上のトークン/秒が期待できる。

ZeroClawの設定

設定ファイルを作成:

```bash mkdir -p ~/.zeroclaw ```

`~/.zeroclaw/config.toml` を編集:

```toml [provider] type = "openai-compatible" base_url = "http://localhost:11434/v1" model = "llama3.1:8b" api_key = "not-needed"

[agent] name = "EdgeBot" personality = "Helpful assistant running on local hardware. Concise responses preferred."

[memory] type = "sqlite" path = "~/.zeroclaw/memory.db" ```

ZeroClawを起動:

```bash zeroclaw start ```

コールドスタートは10ミリ秒以下。最初のクエリはOllamaがモデルをアクセラレータのメモリにロードするため数秒かかるが、それ以降は長さに応じて1〜3秒で応答する。

チャットチャネルの追加

ローカルAIエージェントはスマホから話しかけられるともっと便利になる。ZeroClawのTelegram連携が最も簡単なチャネルだ:

  1. 1.TelegramでBotFatherにメッセージを送り新しいボットを作成
  2. 2.トークンをコピー
  3. 3.config.tomlに追加:

```toml [[channels]] type = "telegram" token = "YOUR_BOT_TOKEN" allowed_users = [your_telegram_user_id] ```

ZeroClawを再起動してボットにメッセージを送る。レスポンスはPi上で動いているモデルから返ってくる——Telegramのメッセージルーティング以外、ローカルネットワークからデータは出ない。AI推論は完全にデスクの上で起きている。

パフォーマンス:期待値

Pi 5 + AI HAT+ 2でllama3.1:8b(Q4_K_M量子化)の実測値:

  • 最初のトークンまでの遅延: 800ms〜1.2秒
  • 生成速度: 12〜15トークン/秒
  • アイドル時RAM使用量: ZeroClaw 4MB + Ollama約200MB + モデル約5.5GB
  • ピーク消費電力: 18〜22W(Pi + HAT+ 2フル推論負荷時)
  • 温度: パッシブ冷却でHailoチップ65〜72℃、ファン付きで55℃で安定

小さいgemma3:4bモデルの場合:

  • 最初のトークンまでの遅延: 400〜600ms
  • 生成速度: 22〜28トークン/秒
  • モデルメモリ: 約3GB

クラウドモデルの速度ではない。しかし会話用途には十分な速さで、量子化8Bモデルのレスポンス品質は2025年から2026年にかけて劇的に向上した。日常のアシスタントタスクの大半——質問への回答、テキスト要約、メッセージの下書き、軽いコーディング支援——にはローカル8Bモデルで十分実用的だ。

システムサービスとして実行

ブート時に起動し、再起動に耐え、クラッシュから復帰するようにしたい:

```bash sudo zeroclaw service install sudo systemctl enable zeroclaw sudo systemctl start zeroclaw ```

ステータス確認:

```bash sudo systemctl status zeroclaw journalctl -u zeroclaw -f ```

ZeroClawのシングルバイナリアーキテクチャのおかげで、プロセスマネージャも依存関係チェーンも壊れる仮想環境もない。systemdユニットファイルは5行。動くか動かないか、それだけだ。動いているとき、RAM使用量は4MB。

このセットアップが置き換えるもの

置き換わるものを考えてみよう:月20ドルのChatGPTサブスクリプション、あるいは使用量に応じて忍び寄る月10ドルのAPI予算。Pi + HAT+ 2のセットアップは初期費用200ドルで、電気代は年間約3〜5ドル。一般的な家庭使用なら、1年以内にペイする。

もっと重要なのは、データが自分のハードウェアに残ること。プロンプトがOpenAIに送られない。会話履歴が他人のサーバーに保存されない。来四半期に変わるかもしれない利用規約に縛られない。MicroSDカード上のSQLiteファイルはあなたのものだ。

さらに先へ

基本セットアップが動き出したら、自然な次のステップがある:

  • 複数モデルの追加 — 簡単な質問にgemma3:4b、複雑なものにllama3.1:8b。ZeroClawはメッセージの複雑さに基づいてルーティングできる。
  • チャネルの追加 — Discord、Baileys経由のWhatsApp、ターミナルアクセス用のCLI。
  • ツールの有効化 — Web検索、ファイル操作、Home Assistant経由のホームオートメーションへのアクセスをエージェントに与える。
  • バックアップの設定 — エージェントの全状態は `~/.zeroclaw/` に入っている。このディレクトリをUSBドライブやNASにコピーするcronジョブで完全な災害復旧が可能。

Pi 5 + AI HAT+ 2 + ZeroClawの組み合わせは、初めて本当に実用的なエッジAIエージェントのセットアップだ。デモでも概念実証でもない——デスクの上で、自分のネットワーク上で、自分の管理下で動く、ちょっと良いディナー程度の費用の日常使いAIアシスタントだ。

ZeroClaw で AI Agent の構築を始めよう

新リリース、連携、Rust製エージェントインフラの最新情報をお届け。スパムなし、いつでも解除可能。