guide privacy

2026 年自托管 AI:完整的隐私优先技术栈

ZeroClaws.io

ZeroClaws.io

@zeroclaws

2026年2月25日

8 分钟

2026 年自托管 AI:完整的隐私优先技术栈

几年前,自托管 AI 意味着在一台 $3,000 的工作站上运行一个 7B 参数模型,每次响应等待 30 秒。那是爱好者的消遣,不是云端服务的实际替代方案。

这已经改变了。更好的量化技术、更高效的模型,以及 Ollama 这样的工具,让本地 AI 在消费级硬件上真正可用。而 ZeroClaw 4MB 的占用意味着智能体运行时本身几乎不增加资源需求。

2026 年,自托管 AI 是由真实关切驱动的实际选择:数据主权、GDPR 合规、企业 IP 保护,以及拥有而非租用工具的简单愿望。下面是如何构建完整技术栈的方法。

三个组件

架构是三个工具,每个都做好一件事。

ZeroClaw 是 AI 智能体运行时。它处理跨聊天频道的消息路由,在本地 SQLite 数据库中管理对话记忆,并在智能体需要采取行动时执行工具。它使用 4MB RAM,作为单个二进制文件发布。它是将一切联系在一起的结缔组织。

Ollama 是本地 LLM 服务器。它下载和管理开放权重模型,自动处理量化,并暴露 ZeroClaw 知道如何对话的简单 API。你不需要理解模型格式、量化级别或推理优化。你运行 `ollama pull llama3.1:8b`,它就能工作。

Tailscale 是安全网络层。它在你的设备之间创建加密的 WireGuard 网格,让你可以从世界任何地方通过手机或笔记本电脑访问你的 AI 助手,而不向互联网暴露任何端口。不需要动态 DNS,不需要防火墙规则,不需要管理 VPN 服务器。

这三个工具一起构成了一个完全私有的 AI 助手,可从任何设备工作,零数据离开你的网络。

选择你的硬件

在预算端($50-100),带 8GB RAM 的树莓派 5 可以运行 1.5B-4B 参数范围内的小型模型。响应时间比云端服务慢,但对于不需要前沿级推理的简单查询和任务,完全可用。带 16GB RAM 的旧笔记本电脑可以合理地处理 7B-8B 参数模型。

在中端($200-400),Mac Mini M2 很难被超越。它安静,耗电少,舒适地处理 8B-13B 参数模型,Apple Silicon 的统一内存架构使其在推理方面特别高效。带 32GB RAM 的二手 ThinkPad 是一个可以很好运行 13B 模型的便携替代方案。

对于最佳性能($500+),任何带有 NVIDIA RTX 3060 或更好显卡的机器都能快速推理大型模型。Mac Studio M2 Ultra 可以舒适地运行 70B 参数模型——在那个级别,本地模型质量对大多数任务接近前沿云端模型。

第一步:设置 Ollama

```bash curl -fsSL https://ollama.com/install.sh | sh

ollama pull llama3.1:8b # 最佳质量/速度平衡 ollama pull qwen3:8b # 强大的多语言支持 ollama pull deepseek-r1:7b # 最适合推理任务 ```

在继续之前验证它是否工作:`ollama run llama3.1:8b "Hello"`。如果你得到响应,Ollama 就准备好了。

第二步:安装和配置 ZeroClaw

```bash curl -fsSL https://raw.githubusercontent.com/zeroclaw-labs/zeroclaw/main/scripts/bootstrap.sh | bash ```

配置 `~/.config/zeroclaw/config.toml`:

```toml [ai] provider = "ollama" model = "llama3.1:8b" endpoint = "http://localhost:11434"

[memory] backend = "sqlite" path = "~/.local/share/zeroclaw/memory.db"

[channels.telegram] token = "YOUR_BOT_TOKEN" allowed_users = [123456789] ```

用 `zeroclaw start` 启动它。此时你有一个可用的私有 AI 助手——但只能从你的本地网络访问。下一步解决这个问题。

第三步:用 Tailscale 实现安全远程访问

Tailscale 在你的设备之间创建加密的 WireGuard 网格。设置很简单:

```bash # 在你的 AI 服务器上 curl -fsSL https://tailscale.com/install.sh | sh sudo tailscale up

# 记下你的 Tailscale IP tailscale ip -4 ```

在你的手机和笔记本电脑上也安装 Tailscale。一旦你所有的设备都在同一个 Tailscale 网络上,它们就可以通过任何互联网连接安全地相互访问——家庭 WiFi、移动数据、咖啡馆网络、企业网络。没有端口暴露在互联网上,没有防火墙规则需要配置。

你的 Telegram 机器人已经可以从任何地方工作,因为 Telegram 的服务器中继消息。Tailscale 用于从你自己的设备直接访问 ZeroClaw 的 API 或 Web 网关。

你实际上得到了什么

这个技术栈的实际结果是一个行为像云端服务但完全在你的硬件上运行的 AI 助手。你的提示词和响应永远不会离开你的网络。对话历史存在于你机器上的一个 SQLite 文件中——你可以随时备份、移动、检查或删除它。如果你在受监管的行业,数据永远不会离开你的司法管辖区。如果你在处理专有代码,它永远不会接触第三方服务器。

成本比较是鲜明的。ChatGPT Plus 和 Claude Pro 每人每月都是 $20。在树莓派 5 上自托管每月大约 $2 电费。在 Mac Mini 上,大约 $5/月。一年下来,每人节省 $180-$230,同时给你完整的数据所有权。

维护是最少的。ZeroClaw 用一条命令更新。Ollama 用 `ollama pull` 更新模型。Tailscale 默认自动更新。你的整个状态是两个文件:`memory.db` 和 `config.toml`。备份这些,你就可以在几分钟内在新硬件上恢复整个设置。

这个技术栈适合谁

这个设置对不想让代码经过第三方服务器的、处理专有代码库的开发者最有意义。对处理敏感客户数据的小企业。对有合规要求的医疗和法律专业人士。对任何认真思考过数据去向并决定宁愿把它留在家里的人。

工具已经成熟,设置大约需要 15 分钟,结果是一个你完全拥有的 AI 助手。唯一值得问的问题是,你为什么还在把数据发送到云端。

保持关注

获取新版本、集成和 Rust 驱动的 Agent 基础设施更新。不发垃圾邮件,随时退订。