OpenClaw Logo

Lokale Llama 3 Integration & Datensouveränität

Erfahre, wie du Llama 3 vollständig lokal betreibst. Durch den Verzicht auf Cloud-Provider und externe API-Keys behältst du die absolute Kontrolle über deine Daten, eliminierst laufende Kosten und schützt deine Privatsphäre nach höchsten Sicherheitsstandards.

Warum lokal? Die Nutzung von Cloud-KIs birgt immer das Risiko, dass sensible Prompts zum Training verwendet werden oder durch Datenlecks nach außen dringen. Mit Ollama + OpenClaw verlassen deine Daten niemals deinen eigenen Server.

Schritt 1

Ollama Engine installieren

Installiere Ollama direkt über das offizielle Skript:
Server Terminal
curl -fsSL https://ollama.com/install.sh | sh
Lade das Basis-Modell herunter:
Server Terminal
ollama pull llama3:8b
Schritt 2

Kontext-Limit erhöhen (Wichtig!)

OpenClaw verweigert den Dienst, wenn das Modell weniger als 16.000 Tokens Kontext bietet. Wir erstellen daher eine angepasste Version von Llama 3:
1. Modelfile erstellen
nano Modelfile
FROM llama3:8b PARAMETER num_ctx 16384
2. Modell generieren
Server Terminal
ollama create llama3-agent -f Modelfile
Schritt 3

Agent in OpenClaw registrieren

Füge einen neuen Agenten hinzu und nutze die folgenden interaktiven Einstellungen:
Server Terminal
openclaw agents add main
AbfrageEingabe / Auswahl
Configure model/auth?Yes
Select AI ProviderOllama (oder Custom)
Model Namellama3-agent
Base URLhttp://127.0.0.1:11434
API Keyleer lassen
Schritt 4

Gateway starten

Starte den Dienst neu, um die Konfiguration zu laden:
Gateway Force Start
openclaw gateway --force
Öffne das TUI für den ersten Chat-Test:
Chat Interface
openclaw tui

Installation abgeschlossen

Llama 3 ist nun mit 16k Kontext erfolgreich eingebunden. Sollten RAM-Probleme auftreten, starte den Ollama-Service neu.

Nächster Schritt: Security