В какой-то момент большинство людей, использующих облачные ИИ-сервисы, испытывают момент паузы. Вы печатаете вопрос о медицинском симптоме, или составляете сообщение о деликатной рабочей ситуации, или просите помощи с кодом, содержащим проприетарную логику — и понимаете, что всё, что вы печатаете, отправляется на сервер, который вы не контролируете, обрабатывается компанией, чью политику хранения данных вы никогда не читали, и потенциально используется для обучения будущих моделей.
Для многих сценариев использования это приемлемый компромисс. Для многих других — нет. И для растущего числа разработчиков вопрос не в том, использовать ли ИИ, а в том, можно ли использовать ИИ, не передавая свои данные.
ZeroClaw и Ollama вместе отвечают на этот вопрос. Вот как это настроить.
Почему локальный подход стоит усилий
Очевидное преимущество локального запуска ИИ — конфиденциальность: ваши запросы и ответы никогда не покидают вашу машину. Но менее очевидные преимущества часто не менее убедительны.
Нет затрат на API. Облачные ИИ-сервисы берут плату за токен — обычно несколько долларов за миллион токенов на входе, больше на выходе. Для лёгкого личного использования это незначительно. Для бизнеса, обрабатывающего тысячи документов, или разработчика, использующего ИИ-ассистент весь день, сумма быстро накапливается. Локальная модель имеет нулевую предельную стоимость за запрос.
Нет ограничений по частоте запросов. Облачные провайдеры ограничивают запросы для управления нагрузкой. Локальная модель работает так быстро, как позволяет ваше железо, без очередей, без ошибок 429 и без деградации сервиса в часы пик.
Нет зависимости от интернета. Локальный ИИ-ассистент работает в самолётах, в подвалах, за корпоративными файрволами и в изолированных средах, где облачный доступ запрещён. После загрузки модели она работает полностью офлайн.
А для регулируемых отраслей — здравоохранения, юриспруденции, финансов — локальный ИИ — это не просто предпочтение, это часто требование соответствия. HIPAA, GDPR и различные финансовые регуляции устанавливают строгие ограничения на то, где могут обрабатываться конфиденциальные данные. Локальная модель полностью обходит эти проблемы.
Шаг 1: Установка Ollama
Ollama — самый простой способ запускать большие языковые модели локально. Он обрабатывает загрузку моделей, квантизацию и обслуживание через простой API, с которым умеет работать ZeroClaw.
На macOS:
```bash brew install ollama ```
На Linux:
```bash curl -fsSL https://ollama.com/install.sh | sh ```
На Windows скачайте установщик с ollama.com.
После установки загрузите модель. Для большинства случаев использования llama3.1:8b — правильная отправная точка: она достаточно мощная для реальной работы и комфортно работает на машинах с 8 ГБ ОЗУ:
```bash ollama pull llama3.1:8b ```
Если у вас более слабое железо, `qwen3:4b` или `phi3:mini` — более лёгкие варианты, которые всё равно хорошо справляются с большинством задач. Если у вас машина с 16+ ГБ ОЗУ и вы хотите лучшего качества, стоит попробовать `llama3.1:70b` (квантизованный).
Шаг 2: Установка ZeroClaw
```bash brew install zeroclaw ```
Или на Linux:
```bash curl -fsSL https://raw.githubusercontent.com/zeroclaw-labs/zeroclaw/main/scripts/bootstrap.sh | bash ```
ZeroClaw — это единый бинарный файл. Больше ничего устанавливать не нужно, никакой среды выполнения для настройки, никаких зависимостей для управления.
Шаг 3: Направьте ZeroClaw на Ollama
Отредактируйте `config.toml`, чтобы указать ZeroClaw использовать Ollama в качестве провайдера ИИ:
```toml [ai] provider = "ollama" model = "llama3.1:8b" endpoint = "http://localhost:11434" ```
Это всё изменение конфигурации. Система провайдеров ZeroClaw разработана так, что переключение между Anthropic, OpenAI, Ollama или любым другим поддерживаемым провайдером — это изменение одной строки. Никаких модификаций кода, никакой перекомпиляции, никакого плагина для установки.
Шаг 4: Подключите канал
Добавьте Telegram в качестве интерфейса — он работает на каждом устройстве, имеет хорошее мобильное приложение, и интеграция ZeroClaw с Telegram зрелая:
```toml [channels.telegram] token = "YOUR_BOT_TOKEN" allowed_users = [123456789] ```
Запустите ZeroClaw:
```bash zeroclaw start ```
Отправьте сообщение своему Telegram-боту. Ответ приходит от Ollama, работающего на вашей машине. Ничто не касается интернета, кроме вызова API Telegram для доставки сообщения — фактическая обработка ИИ полностью локальная.
Идём дальше: гибридный режим
У чисто локального ИИ есть одно реальное ограничение: меньшие модели не так мощны, как фронтирные модели вроде Claude или GPT-4, для сложных задач рассуждения. Гибридный режим ZeroClaw позволяет получить лучшее из обоих миров.
```toml [ai] provider = "ollama" model = "llama3.1:8b"
[ai.fallback] provider = "anthropic" model = "claude-sonnet-4-20250514" trigger = "complexity_threshold" ```
С этой конфигурацией простые вопросы — «какова столица Франции?», «резюмируй этот абзац», «напиши регулярное выражение для email-адресов» — обрабатываются локально бесплатно. Сложные задачи рассуждения, с которыми локальная модель справляется хуже, автоматически передаются Claude. Вы контролируете, где проходит граница. Для большинства пользователей этот гибридный подход — практическая золотая середина: 80–90% запросов обрабатываются локально бесплатно, с облачным резервом для случаев, которые действительно в нём нуждаются.
На чём это реально работает
Запуск ZeroClaw + Ollama с llama3.1:8b требует около 6 ГБ ОЗУ для самой модели плюс незначительные 4 МБ для ZeroClaw. Машина с 8 ГБ ОЗУ может запустить полный стек; 16 ГБ — комфортно. Время ответа на Apple M1 обычно составляет 2–5 секунд для типичного запроса. На современной машине с дискретным GPU — быстрее.
Mac Mini за $200, подержанный ThinkPad за $50 или машина, которая у вас уже есть — любая из них может запускать полностью приватный ИИ-ассистент 24/7 с нулевыми текущими затратами. Железо окупается за несколько месяцев по сравнению с подпиской на облачный ИИ.
Общая картина
Нарратив о том, что «ИИ требует облака», имел смысл в 2023 году, когда запуск мощной модели локально требовал дорогого железа и значительной технической экспертизы. Это больше не так. Ollama сделал локальные модели доступными. ZeroClaw сделал их подключение к повседневному рабочему процессу тривиальным.
Результат — ИИ-ассистент, который ничего не знает о вас, кроме того, что вы ему говорите, не хранит ничего на чужих серверах и ничего не стоит в работе, кроме электричества для поддержания вашей машины включённой. Для тех, кто когда-либо колебался перед тем, как напечатать что-то конфиденциальное в чат, это стоит многого.