Wiekszosc poradnikow dotyczacych konfiguracji prywatnego asystenta AI zaklada, ze masz wydajna karte graficzna, wolny weekend i swobodnie poruszasz sie w Docker Compose. Ten poradnik taki nie jest.
ZeroClaw plus Ollama daje ci w pelni prywatnego asystenta AI w pieciu minutach, na sprzetcie, ktory juz masz, bez kosztow chmury.
Czego potrzebujesz
Komputer z co najmniej 8 GB RAM. Polaczenie internetowe do poczatkowego pobierania. To wszystko.
Krok 1: Zainstaluj Ollama
Ollama uruchamia duze modele jezykowe lokalnie. Zainstaluj go jednym poleceniem, a nastepnie pobierz model. Po pobraniu przetestuj go: zadaj pytanie i otrzymaj odpowiedz. Wszystko pozostaje na twoim komputerze.
Krok 2: Zainstaluj ZeroClaw
ZeroClaw to srodowisko uruchomieniowe, ktore laczy Telegram, Discord lub WhatsApp z twoim lokalnym AI. Skrypt bootstrap wykrywa twoj system operacyjny, pobiera odpowiednia binarke i umieszcza ja w PATH.
Krok 3: Skonfiguruj
Utworz plik config.toml z dostawca AI ustawionym na Ollama i twoim lokalnym modelem. Dla Telegrama: utworz bota przez @BotFather, skopiuj token i dodaj swoje ID czatu do allowed_users.
Krok 4: Uruchom
Jedno polecenie uruchamia wszystko. Wyslij wiadomosc do swojego bota. Otrzymasz odpowiedz od lokalnego modelu. Bez kosztow API, bez danych opuszczajacych twoj komputer.
Dlaczego to dziala
ZeroClaw uzywa 4 MB RAM w spoczynku. Ollama efektywnie zarzadza inferencja modelu. Na komputerze z 16 GB RAM uzywasz mniej niz 10% dla calego stosu.
Historia rozmow jest przechowywana w lokalnym pliku SQLite. Mozesz go kopiowaC, sprawdzac lub usuwac kiedy chcesz. Nie ma zewnetrznej uslugi przechowujacej twoje dane.