OpenClaw Gemini API Einrichtungsanleitung

February 12, 2026

Dieses Tutorial erklärt, wie Sie Google Gemini-Modelle in OpenClaw konfigurieren und verwenden. OpenClaw unterstützt mehrere Zugriffsmethoden, sodass Sie die für Ihre Anforderungen am besten geeignete Lösung wählen können.


Einführung

Google Gemini ist ein von Google DeepMind entwickeltes multimodales KI-Modell, das verschiedene Eingabeformate wie Text, Bilder und Videos unterstützt. Durch die Verwendung von Gemini in OpenClaw erhalten Sie:

  • Gemini 2.0 Flash - 1 Million Token Kontext, ideal für Szenarien mit hoher Frequenz und schnellen Antworten
  • Gemini 1.5 Pro - 2 Millionen Token Kontext, geeignet für komplexe logische Schlussfolgerungen und Code-Generierung
  • Gemini 1.5 Flash - 1 Million Token Kontext, die ausgewogene Wahl für Geschwindigkeit und Effizienz

Methode 1: Zugriff auf Gemini über Defapi (Empfohlen)

Defapi ist eine Plattform, die APIs verschiedener großer Modelle bündelt und Entwicklern kostengünstigere sowie stabilere Dienste bietet.

Vorteile von Defapi

  • Günstiger Preis: Nur etwa 50 % des offiziellen Preises
  • Vollständig kompatibel: Kompatibel mit Standard-Schnittstellen wie OpenAI v1/chat/completions, Anthropic v1/messages, Google v1beta/models/ usw.
  • Keine Codeänderung erforderlich: Um zu Defapi zu wechseln, müssen Sie nur die baseUrl ändern; der bestehende Code bleibt unverändert
  • Unterstützung mehrerer Modelle: Zugriff auf Gemini, Claude, GPT und andere Modelle über eine einzige Plattform

Einrichtung

Variante A: Direkter Aufruf von Defapi

# Umgebungsvariable setzen
export DEFAPI_API_KEY="Ihr_Defapi_Key"

# OpenClaw zur Nutzung von Defapi konfigurieren
{
  env: { DEFAPI_API_KEY: "dk-..." },
  agents: {
    defaults: {
      model: { primary: "defapi/gemini-3-flash" },
    },
  },
  models: {
    mode: "merge",
    providers: {
      "defapi": {
        baseUrl: "https://api.defapi.org/v1beta",
        apiKey: "${DEFAPI_API_KEY}",
        api: "google-generative-ai",
        models: [
          {
            id: "gemini-3-flash",
            name: "Gemini 3 Flash",
            contextWindow: 1000000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

Variante B: Über die OpenAI-kompatible Schnittstelle

Falls Ihre Anwendung das OpenAI-Format nutzt:

{
  models: {
    mode: "merge",
    providers: {
      "defapi-openai": {
        baseUrl: "https://api.defapi.org/v1/chat/completions",
        apiKey: "${DEFAPI_API_KEY}",
        api: "openai-completions",
        models: [
          { id: "gemini-3-flash", name: "Gemini 3 Flash", contextWindow: 1000000 },
        ],
      },
    },
  },
}

Von Defapi unterstützte Gemini-Modelle

ModellEingabepreisAusgabepreisKontext
Gemini 3 Flash$0.25/M$1.50/M1M
Gemini 3 Pro$2.5/M$12.5/M1M
Gemini 2.0 FlashSiehe offiziellSiehe offiziell1M
Gemini 1.5 ProSiehe offiziellSiehe offiziell2M

Defapi erhalten

Besuchen Sie die offizielle Defapi-Website, registrieren Sie ein Konto, um Ihren API-Key zu erhalten und loszulegen.


Methode 2: Direkte Nutzung der offiziellen Google API

API-Key erhalten

  1. Besuchen Sie Google AI Studio
  2. Melden Sie sich mit Ihrem Google-Konto an
  3. Klicken Sie auf „Get API Key“, um einen neuen Schlüssel zu erstellen
  4. Kopieren Sie den Schlüssel zur späteren Verwendung

CLI-Konfiguration

# Interaktive Konfiguration
openclaw onboard --auth-choice google-api-key

# Nicht-interaktive Konfiguration (Umgebungsvariablen)
export GOOGLE_API_KEY="Ihr_API_Key"
openclaw onboard --google-api-key "$GOOGLE_API_KEY"

Konfigurationsdatei

Dateipfad: ~/.openclaw/openclaw.json

{
  env: { GOOGLE_API_KEY: "AIza..." },
  agents: { defaults: { model: { primary: "google-generative-ai/gemini-1.5-flash" } } },
}

Unterstützte Modelle

Modell-IDKontextAnwendungsfall
gemini-2.0-flash-exp1MSchnelle Antwort, hohe Frequenz
gemini-1.5-flash1MBalance zwischen Speed & Effizienz
gemini-1.5-pro2MKomplexe Logik, Programmierung

Methode 3: Einheitlicher Zugriff über OpenRouter

OpenRouter bietet einen einheitlichen API-Endpunkt, über den auf Modelle verschiedener Anbieter gleichzeitig zugegriffen werden kann.

OpenRouter API-Key erhalten

  1. Registrieren Sie sich auf OpenRouter
  2. Erstellen Sie einen API-Key im Dashboard

CLI-Konfiguration

export OPENROUTER_API_KEY="sk-or-..."
openclaw onboard --auth-choice apiKey --token-provider openrouter --token "$OPENROUTER_API_KEY"

Konfigurationsdatei

Dateipfad: ~/.openclaw/openclaw.json

{
  env: { OPENROUTER_API_KEY: "sk-or-..." },
  agents: {
    defaults: {
      model: { primary: "openrouter/google/gemini-2.0-flash-exp" },
    },
  },
}

💡 Vorteile von OpenRouter

  • Preisvergleich mehrerer Anbieter: Wählen Sie Gemini-Modelle von verschiedenen Hostern
  • Einheitliche Schnittstelle: Nur ein API-Key für den Zugriff auf viele Modelle erforderlich
  • OpenAI-Format-Kompatibilität: Modellwechsel ohne Codeänderung möglich

Methode 4: Zugriff über benutzerdefinierte Anbieter

Wenn eine Plattform eine OpenAI-kompatible Schnittstelle unter /v1/chat/completions anbietet, kann diese als benutzerdefinierter Provider konfiguriert werden.

Beispiel für Konfigurationsdatei

Dateipfad: ~/.openclaw/openclaw.json

{
  agents: {
    defaults: {
      model: { primary: "custom-gemini/gemini-1.5-flash" },
    },
  },
  models: {
    mode: "merge",
    providers: {
      "custom-gemini": {
        baseUrl: "https://your-gemini-proxy.example.com/v1",
        apiKey: "${CUSTOM_GEMINI_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "gemini-1.5-flash",
            name: "Gemini 1.5 Flash",
            contextWindow: 1000000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

Beschreibung der Konfigurationsfelder

FeldBeschreibung
baseUrlBasis-URL der API
apiSchnittstellentyp: openai-completions
apiKeyAPI-Key, unterstützt die ${ENV_VAR}-Syntax
models[].contextWindowGröße des Kontextfensters
models[].maxTokensMaximale Anzahl an Ausgabe-Token

Konfiguration von Thinking Blocks

Gemini 2.0 Modelle unterstützen „Thinking Blocks“ zur Erweiterung der logischen Fähigkeiten. OpenClaw verarbeitet diese Konfigurationen automatisch zur Sicherstellung der Kompatibilität:

Dateipfad: ~/.openclaw/openclaw.json

{
  agents: {
    defaults: {
      models: {
        "google-generative-ai/gemini-2.0-flash-exp": {
          params: {
            thinkingConfig: {
              thinkingBudget: 8192,
            },
          },
        },
      }
    },
  },
}

Fehlerbehebung (FAQ)

401 Fehler / API-Key ungültig

  • Überprüfen Sie, ob der API-Key korrekt ist und nicht widerrufen wurde
  • Stellen Sie sicher, dass der Key Berechtigungen für die Generative Language API hat

Rate Limits (Ratenbegrenzung)

  • Gemini hat stufenbasierte Limits (Free Tier: 15 RPM)
  • Überwachen Sie die Nutzung im Google AI Studio Dashboard
  • Lösung: Die Nutzung von Defapi kann höhere Kontingente ermöglichen

Tool Schema Fehler

  • Google unterstützt bestimmte JSON Schema Keywords nicht (z.B. patternProperties, additionalProperties usw.)
  • OpenClaw entfernt nicht unterstützte Keywords automatisch
  • Komplexe Schemata sollten ggf. in einfachere Tool-Definitionen aufgeteilt werden

Projekt-ID erforderlich

  • Setzen Sie die Umgebungsvariablen GOOGLE_CLOUD_PROJECT oder GOOGLE_CLOUD_PROJECT_ID

Kostenvergleich

ZugriffsmethodeGemini 1.5 Flash InputGemini 1.5 Flash Output
Google Offiziell$0.075/M$0.30/M
Defapi (halber Preis)~$0.0375/M~$0.15/M

Für Szenarien mit häufigen Aufrufen kann die Nutzung von Defapi die Kosten erheblich senken.

Updated February 12, 2026