Open Claw über lokale LLM und LM Studio betreiben

Inhaltsverzeichnis

Open Claw ist bekanntlich gerade in aller Munde, sei es aufgrund der Sicherheitsprobleme, der vielen Namenswechsel, des sozialen Netzwerks, in dem sich LLMs unterhalten konnten, oder nicht zuletzt aufgrund des riesigen Potenzials, das ein persönlicher Assistent im Stil von Jarvis hat. Der persönliche Assistent ist zu interessant, um ihn nicht trotzdem auszuprobieren – und im Optimalfall auch noch mit einer selbst gehosteten lokalen AI, die Toolcalling unterstützt, zu betreiben. Das kostet zwar Strom, ist aber bei Weitem günstiger als teure API-Calls. Nach einem interessanten Abend des Einlesens konnte ich mir bereits ein funktionierendes Setup aufsetzen, das gerade durchgetestet wird. In diesem Beitrag habe ich ein paar Notizen dazu gesammelt.

Vorbereitungen

Ich betreibe Open Claw nicht direkt auf meinem Computer, sondern habe den Assistenten in einen kleinen, etwas älteren Mini-PC verbannt. Der Vorteil davon ist, dass er in dem Fall in einem etwas kontrollierten Umfeld aktiv sein kann. Ein ähnliches Vorgehen würde ich euch auch empfehlen; wer keinen eigenen PC nutzen möchte, kann sich auch eine virtuelle Maschine aufsetzen. Für das Betriebssystem greife ich zur neuesten Version von Ubuntu Server. Ich gehe nachfolgend nicht im Detail auf alle Schritte ein, sondern gehe nur dort auf Einstellungen ein, die vom Standard abweichen. Wichtig anzumerken ist noch, dass Ihr eurer KI das größtmögliche Context Window geben solltet. In den tiefen der Dokumentation war die Rede von einem 100k Context Window, ich schaffe das hier im lokalen Umfeld mit einem größeren Model nicht, es klappt aber trotzdem.

LLM Temperatures, Top_P / Top_K und weitere Settings

Werft vor dem Start einen Blick auf die empfohlenen Temperatures und weitere Einstellungen für eure lokale KI. Im Fall von Qwen 3 Next Coder wären diese wie folgt:

  • Temperature = 1.0
  • Top_P = 0.95
  • Top_K = 40
  • Min_P = 0.01 (llama.cpp’s default is 0.05)

Wenn diese Werte abweichen, kann dies mit ein Grund sein, warum die KI unerwarteten Output liefert. In meinem Fall spuckte Qwen 3 Next Coder ohne die oben genannten Anpassungen immer wieder gerne chinesische Zeichen mit aus.

OpenClaw installieren

  1. Homebrew installieren -> https://brew.sh/
  2. OpenClaw installieren -> https://openclaw.ai/

Direkt nach der Installation von OpenClaw landet ihr im Onboarding-Prozess. Hier akzeptieren wir die Warnmeldungen und nehmen die folgenden Einstellungen vor. Vorerst skippen wir uns durch die eigentliche Konfiguration, uns ist vorerst nur die Installation an sich wichtig.

  1. “Onboard Mode” -> “Quickstart”
  2. „Model/auth Provider“ -> „Skip for Now“
  3. “Filter Models by provider“ -> „All providers“
  4. „Default model“ -> “keep current”
  5. “Select Channel” -> “skip for now”
  6. “Configure skills now?” -> “No”
  7. “How do you want to hatch your bot?” -> “Hatch in TUI”

Jetzt versucht Open Claw eine Verbindung mit eurer KI herzustellen, was natürlich nicht funktioniert.

Open Claw für LM Studio Verbindung konfigurieren

Wir verlassen Open Claw und wechseln in die Config:

				
					nano .openclaw/openclaw.json
				
			

Config Snippet:

				
					  "models": {
    "mode": "merge",
    "providers": {
      "lmstudio": {
        "baseUrl": "http://192.168.50.183:1234/v1/",
        "apiKey": "lmstudio",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen/qwen3-coder-next",
            "name": "qwen/qwen3-coder-next",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 50000,
            "maxTokens": 4096
          }
        ]
      }
    }
  },

				
			

Fügt das Snippet vor „agents“ ein und passt die Einstellungen an eure Gegebenheiten an. Wichtig ist unter anderem der Punkt "api": "openai-completions". Falls ihr hier Probleme mit eurem Model habt und der LM Studio Server Meldungen wie [Server error] [Object object] beim Toolcalling wirft, müsst Ihr diese Einstellung höchstwahrscheinlich auf "openai-responses" ändern. Diese ist neuer, in meinen Tests mit lokalen Modellen war die "openai-completions" API aber immer die korrekte Wahl.

Den korrekten Namen eures Models erfahrt Ihr im Server-Tab von LM Studio (Developer -> Local Server); zuvor muss das gewünschte Model geladen werden. In diesem Tab findet Ihr auch die IP-Adresse eurer LM Studio Instanz (ich gehe jetzt nicht direkt auf alle Einstellungen für LM Studio ein, dazu gibt es genügend Anleitungen). Wichtig anzumerken: In meinem Fall muss ich den Zugriff auf die IP über mein lokales Netzwerk ermöglichen. Vergesst auch nicht die Einstellung bei contextWindow – diese sollte gleich mit der Einstellung bei LM Studio sein; je mehr Context Window ihr habt, desto besser.

Nun fügen wir unter „agents“ folgendes Snippet ein.

				
					  "agents": {
    "defaults": {
      "model": {
        "primary": "lmstudio/qwen/qwen3-coder-next"
      },
      "models": {
        "qwen/qwen3-coder-next": {}
      },
				
			

Sobald wir fertig sind, speichern wir unsere neue Config-File und starten das Onboarding von OpenClaw erneut.

				
					openclaw onboard
				
			

Wir klicken uns jetzt wieder durch die Warnmeldungen und wählen unter:

  1. „Onboard Mode“ -> „Quickstart“ – Nun sollten wir die neuen Verbindungsdetails zu unserer lokalen KI sehen. Wir gehen weiter durch das Onboarding.
  2. „Config handling“ -> „Use existing values“
  3. „Model/auth Provider“ -> „Skip for Now“
  4. “Filter Models by provider“ -> „All providers“
  5. „Default model“ -> “keep current”

Jetzt könnt Ihr z. B. WhatsApp oder Telegram verbinden. Für diese Anleitung skippen wir den Schritt und gehen weiter zu den Skills:

  1. „Configure Skills now“ -> „Yes“
  2. „Show Homebrew install command“ -> „Yes“
  3. „Preferred node manager for skill installs“ -> „npm“

Hier könnt Ihr jetzt ein paar erste Skills auswählen. Im nächsten Schritt werdet Ihr noch nach API-Keys gefragt, hier könnt Ihr euch bereits austoben.

Probleme und Lösungen

LM Studio: [Server error] [Object object] Fehler

LM Studio: [Server error] [Object object] Fehler Lokale LLMs mit Toolcalling wie Qwen 3 Coder Next oder GLM 4.6 nutzen noch nicht die neue OpenAI Response API, die standardmäßig von LM Studio für das Toolcalling genutzt wird. Die Fehlermeldung [Server error] [Object object] bezieht sich auf das daraus resultierende Kommunikationsproblem.

Fix: In der Datei .openclaw/openclaw.json unter models -> providers -> {dein_model} -> api den Wert openai-completions eintragen.

Kontakt

Bürozeiten:
Montag – Donnerstag: 9:00 – 17:00 Uhr
Freitag: 9:00 – 14:00 Uhr