Qualche anno fa, fare self-hosting dell'AI significava eseguire un modello da 7 miliardi di parametri su una workstation da .000 e aspettare 30 secondi per ogni risposta. Nel 2026, il self-hosting dell'AI e una scelta pratica guidata da preoccupazioni reali: sovranita dei dati, conformita GDPR, protezione della proprieta intellettuale aziendale.
I tre componenti
ZeroClaw e il runtime per agenti AI. Gestisce il routing dei messaggi, la memoria delle conversazioni in un database SQLite locale e l'esecuzione degli strumenti. Usa 4 MB di RAM.
Ollama e il server LLM locale. Scarica e gestisce modelli open-weight, gestisce automaticamente la quantizzazione.
Tailscale e il livello di rete sicura. Crea una mesh WireGuard cifrata tra i tuoi dispositivi senza esporre porte su internet.
Scelta dell'hardware
Nella fascia budget (0-100), un Raspberry Pi 5 con 8 GB di RAM puo eseguire modelli nella gamma 1,5-4 miliardi di parametri. Nella fascia media (00-400), un Mac Mini M2 e difficile da battere. Per le migliori prestazioni (00+), qualsiasi macchina con NVIDIA RTX 3060 o superiore.
Passo 1: Configura Ollama
Passo 2: Installa e configura ZeroClaw
Passo 3: Accesso remoto sicuro con Tailscale
Cosa ottieni davvero
I tuoi prompt e le risposte non lasciano mai la tua rete. La cronologia delle conversazioni vive in un file SQLite sulla tua macchina. Il confronto dei costi e netto: ChatGPT Plus e Claude Pro costano entrambi 0/mese a persona. Il self-hosting su Raspberry Pi 5 costa circa /mese di elettricita.
Per chi e questo stack
Questa configurazione ha piu senso per gli sviluppatori che lavorano su codebase proprietarie, per le piccole imprese che gestiscono dati sensibili dei clienti, per i professionisti sanitari e legali con requisiti di conformita. Gli strumenti sono maturi, la configurazione richiede circa 15 minuti.