tutorial privacy

ZeroClaw + Ollama: uruchom w pełni prywatnego agenta AI w 5 minut

ZeroClaws.io

ZeroClaws.io

@zeroclaws

February 25, 2026

6 min czytania

ZeroClaw + Ollama: uruchom w pełni prywatnego agenta AI w 5 minut

Wiekszosc poradnikow dotyczacych konfiguracji prywatnego asystenta AI zaklada, ze masz wydajna karte graficzna, wolny weekend i swobodnie poruszasz sie w Docker Compose. Ten poradnik taki nie jest.

ZeroClaw plus Ollama daje ci w pelni prywatnego asystenta AI w pieciu minutach, na sprzetcie, ktory juz masz, bez kosztow chmury.

Czego potrzebujesz

Komputer z co najmniej 8 GB RAM. Polaczenie internetowe do poczatkowego pobierania. To wszystko.

Krok 1: Zainstaluj Ollama

Ollama uruchamia duze modele jezykowe lokalnie. Zainstaluj go jednym poleceniem, a nastepnie pobierz model. Po pobraniu przetestuj go: zadaj pytanie i otrzymaj odpowiedz. Wszystko pozostaje na twoim komputerze.

Krok 2: Zainstaluj ZeroClaw

ZeroClaw to srodowisko uruchomieniowe, ktore laczy Telegram, Discord lub WhatsApp z twoim lokalnym AI. Skrypt bootstrap wykrywa twoj system operacyjny, pobiera odpowiednia binarke i umieszcza ja w PATH.

Krok 3: Skonfiguruj

Utworz plik config.toml z dostawca AI ustawionym na Ollama i twoim lokalnym modelem. Dla Telegrama: utworz bota przez @BotFather, skopiuj token i dodaj swoje ID czatu do allowed_users.

Krok 4: Uruchom

Jedno polecenie uruchamia wszystko. Wyslij wiadomosc do swojego bota. Otrzymasz odpowiedz od lokalnego modelu. Bez kosztow API, bez danych opuszczajacych twoj komputer.

Dlaczego to dziala

ZeroClaw uzywa 4 MB RAM w spoczynku. Ollama efektywnie zarzadza inferencja modelu. Na komputerze z 16 GB RAM uzywasz mniej niz 10% dla calego stosu.

Historia rozmow jest przechowywana w lokalnym pliku SQLite. Mozesz go kopiowaC, sprawdzac lub usuwac kiedy chcesz. Nie ma zewnetrznej uslugi przechowujacej twoje dane.

Bądź na bieżąco

Otrzymuj informacje o nowych wydaniach, integracjach i infrastrukturze agentów w Rust. Bez spamu, wypisanie w każdej chwili.