Es gibt etwas fast Absurdes an den Standardempfehlungen für den Betrieb eines KI-Agenten. „Man braucht mindestens einen 4-GB-VPS“, sagen die Tutorials. Für einen Dienst, der meistens im Leerlauf auf Nachrichten wartet, sie dann an eine API weiterleitet und die Antwort zurückgibt, sind die Ressourcenanforderungen der meisten KI-Agent-Runtimes völlig unverhältnismäßig zur eigentlichen Arbeit.
ZeroClaw bricht dieses Muster. Es verwendet 4 MB RAM im Leerlauf. Ein Raspberry Pi Zero 2 W – ein Computer in der Größe einer Kreditkarte für 15 € – hat 512 MB RAM. ZeroClaw verbraucht weniger als 2 % davon.
Die benötigte Hardware
Das Minimum-Setup kostet etwa 33 €: ein Raspberry Pi Zero 2 W (15 €), eine 32-GB-microSD-Karte (8 €) und ein USB-C-Netzteil (10 €). Das sind einmalige Kosten ohne monatliche Gebühren. Zum Vergleich: ChatGPT Plus kostet 20 €/Monat. Der Pi amortisiert sich in unter zwei Monaten.
Wer bereits einen Raspberry Pi 3, 4 oder 5 in einer Schublade hat, muss nichts kaufen. Jeder Pi der letzten Jahre hat mehr als genug Ressourcen für ZeroClaw.
Warum ZeroClaw auf so kleiner Hardware läuft
Die meisten KI-Agent-Runtimes sind auf Node.js oder Python aufgebaut – Runtimes, die erheblichen Overhead haben, selbst wenn sie im Leerlauf sind. Node.js muss die V8-Engine initialisieren, das Modulsystem laden und einen Dependency-Tree mit Hunderten oder Tausenden von Paketen auflösen, bevor es eine einzige Nachricht verarbeiten kann. Deshalb braucht OpenClaw 1,2 GB RAM, nur um dort zu sitzen.
ZeroClaw ist ein natives Rust-Binary. Kein Runtime zum Initialisieren, kein Garbage Collector im Hintergrund, kein Dependency-Tree zum Laden. Das Binary startet, liest seine Konfigurationsdatei, öffnet seine Datenbankverbindung und ist bereit, Nachrichten zu verarbeiten. Der gesamte Prozess verwendet etwa 4 MB RAM.
Einrichtung
1. OS flashen
Raspberry Pi OS Lite (64-Bit) von raspberrypi.com herunterladen und mit dem Raspberry Pi Imager auf die SD-Karte flashen. Während der Einrichtung SSH aktivieren und WLAN-Zugangsdaten konfigurieren.
2. ZeroClaw installieren
Per SSH auf den Pi verbinden und das Bootstrap-Skript ausführen:
```bash curl -fsSL https://raw.githubusercontent.com/zeroclaw-labs/zeroclaw/main/scripts/bootstrap.sh | bash ```
Das Skript erkennt die ARM64-Architektur und lädt das vorgefertigte Binary herunter. Keine Kompilierung nötig.
3. Anbieter konfigurieren
```~/.config/zeroclaw/config.toml` bearbeiten:
```toml [ai] provider = "anthropic" model = "claude-sonnet-4-20250514" api_key = "sk-ant-..."
[channels.telegram] token = "YOUR_BOT_TOKEN" allowed_users = [123456789] ```
Jeder Cloud-Anbieter kann verwendet werden – OpenAI, Anthropic, Google, Groq – oder man zeigt auf eine Ollama-Instanz, die auf einem anderen Rechner im Netzwerk läuft.
4. Als Service einrichten
```bash sudo tee /etc/systemd/system/zeroclaw.service << EOF [Unit] Description=ZeroClaw AI Agent After=network-online.target Wants=network-online.target
[Service] Type=simple User=pi ExecStart=/home/pi/.cargo/bin/zeroclaw start Restart=always RestartSec=5
[Install] WantedBy=multi-user.target EOF
sudo systemctl enable --now zeroclaw ```
Der KI-Assistent läuft jetzt, überlebt Neustarts und verbraucht etwa 0,4 Watt Strom – ungefähr 0,50 € pro Jahr an Stromkosten.
Echte Performance-Zahlen
Echte Messungen auf einem Raspberry Pi Zero 2 W: Cold Start etwa 50 ms, Speicherverbrauch 4,2 MB RSS, Nachrichten-Routing-Latenz unter 5 ms. Stromverbrauch etwa 0,4 W im Leerlauf.
Der Flaschenhals ist immer die API-Antwortzeit des KI-Anbieters – typischerweise 1–3 Sekunden für eine typische Anfrage. ZeroClaws Beitrag zu dieser Latenz ist vernachlässigbar.
Was man damit wirklich machen kann
Die Anwendungsfälle sind breiter als die meisten zunächst denken. Ein Familien-Telegram-Gruppen-Bot für Hausaufgabenhilfe und Rezeptvorschläge. Eine Home-Automation-Schnittstelle, die sich mit Home Assistant verbindet. Ein IoT-Überwachungsagent, der Sensordaten analysiert und Alarme sendet. Ein persönliches Tagebuch, mit dem man über Signal spricht, mit dem gesamten Gesprächsverlauf lokal auf dem Pi gespeichert.
Weiterführend: Lokale Modelle auf Pi 5
Mit einem Raspberry Pi 5 mit 8 GB RAM können kleine Sprachmodelle lokal mit Ollama ausgeführt werden:
```bash ollama pull qwen3:1.5b ```
Das 1,5B-Parameter-Modell läuft mit etwa 2 Tokens pro Sekunde auf dem Pi 5 – langsam nach Cloud-Maßstäben, aber funktional für einfache Anfragen und vollständig offline.
Der größere Punkt
Der Raspberry Pi ist nicht nur ein billiger Weg, ZeroClaw auszuführen. Er ist eine Demonstration dessen, was möglich ist, wenn Infrastruktur-Software die Hardware respektiert, auf der sie läuft. Ein 33-Euro-Computer, der ein 4-MB-Binary ausführt, 0,5 Watt verbraucht, mehrere Chat-Channels gleichzeitig verwaltet, rund um die Uhr verfügbar – das ist, was „berall deployen“ in der Praxis wirklich bedeutet.