Dieses Tutorial erklärt, wie Sie Google Gemini-Modelle in OpenClaw konfigurieren und verwenden. OpenClaw unterstützt mehrere Zugriffsmethoden, sodass Sie die für Ihre Anforderungen am besten geeignete Lösung wählen können.
Einführung
Google Gemini ist ein von Google DeepMind entwickeltes multimodales KI-Modell, das verschiedene Eingabeformate wie Text, Bilder und Videos unterstützt. Durch die Verwendung von Gemini in OpenClaw erhalten Sie:
- Gemini 2.0 Flash - 1 Million Token Kontext, ideal für Szenarien mit hoher Frequenz und schnellen Antworten
- Gemini 1.5 Pro - 2 Millionen Token Kontext, geeignet für komplexe logische Schlussfolgerungen und Code-Generierung
- Gemini 1.5 Flash - 1 Million Token Kontext, die ausgewogene Wahl für Geschwindigkeit und Effizienz
Methode 1: Zugriff auf Gemini über Defapi (Empfohlen)
Defapi ist eine Plattform, die APIs verschiedener großer Modelle bündelt und Entwicklern kostengünstigere sowie stabilere Dienste bietet.
Vorteile von Defapi
- Günstiger Preis: Nur etwa 50 % des offiziellen Preises
- Vollständig kompatibel: Kompatibel mit Standard-Schnittstellen wie OpenAI v1/chat/completions, Anthropic v1/messages, Google v1beta/models/ usw.
- Keine Codeänderung erforderlich: Um zu Defapi zu wechseln, müssen Sie nur die
baseUrländern; der bestehende Code bleibt unverändert - Unterstützung mehrerer Modelle: Zugriff auf Gemini, Claude, GPT und andere Modelle über eine einzige Plattform
Einrichtung
Variante A: Direkter Aufruf von Defapi
# Umgebungsvariable setzen
export DEFAPI_API_KEY="Ihr_Defapi_Key"
# OpenClaw zur Nutzung von Defapi konfigurieren
{
env: { DEFAPI_API_KEY: "dk-..." },
agents: {
defaults: {
model: { primary: "defapi/gemini-3-flash" },
},
},
models: {
mode: "merge",
providers: {
"defapi": {
baseUrl: "https://api.defapi.org/v1beta",
apiKey: "${DEFAPI_API_KEY}",
api: "google-generative-ai",
models: [
{
id: "gemini-3-flash",
name: "Gemini 3 Flash",
contextWindow: 1000000,
maxTokens: 8192,
},
],
},
},
},
}
Variante B: Über die OpenAI-kompatible Schnittstelle
Falls Ihre Anwendung das OpenAI-Format nutzt:
{
models: {
mode: "merge",
providers: {
"defapi-openai": {
baseUrl: "https://api.defapi.org/v1/chat/completions",
apiKey: "${DEFAPI_API_KEY}",
api: "openai-completions",
models: [
{ id: "gemini-3-flash", name: "Gemini 3 Flash", contextWindow: 1000000 },
],
},
},
},
}
Von Defapi unterstützte Gemini-Modelle
| Modell | Eingabepreis | Ausgabepreis | Kontext |
|---|---|---|---|
| Gemini 3 Flash | $0.25/M | $1.50/M | 1M |
| Gemini 3 Pro | $2.5/M | $12.5/M | 1M |
| Gemini 2.0 Flash | Siehe offiziell | Siehe offiziell | 1M |
| Gemini 1.5 Pro | Siehe offiziell | Siehe offiziell | 2M |
Defapi erhalten
Besuchen Sie die offizielle Defapi-Website, registrieren Sie ein Konto, um Ihren API-Key zu erhalten und loszulegen.
Methode 2: Direkte Nutzung der offiziellen Google API
API-Key erhalten
- Besuchen Sie Google AI Studio
- Melden Sie sich mit Ihrem Google-Konto an
- Klicken Sie auf „Get API Key“, um einen neuen Schlüssel zu erstellen
- Kopieren Sie den Schlüssel zur späteren Verwendung
CLI-Konfiguration
# Interaktive Konfiguration
openclaw onboard --auth-choice google-api-key
# Nicht-interaktive Konfiguration (Umgebungsvariablen)
export GOOGLE_API_KEY="Ihr_API_Key"
openclaw onboard --google-api-key "$GOOGLE_API_KEY"
Konfigurationsdatei
Dateipfad: ~/.openclaw/openclaw.json
{
env: { GOOGLE_API_KEY: "AIza..." },
agents: { defaults: { model: { primary: "google-generative-ai/gemini-1.5-flash" } } },
}
Unterstützte Modelle
| Modell-ID | Kontext | Anwendungsfall |
|---|---|---|
gemini-2.0-flash-exp | 1M | Schnelle Antwort, hohe Frequenz |
gemini-1.5-flash | 1M | Balance zwischen Speed & Effizienz |
gemini-1.5-pro | 2M | Komplexe Logik, Programmierung |
Methode 3: Einheitlicher Zugriff über OpenRouter
OpenRouter bietet einen einheitlichen API-Endpunkt, über den auf Modelle verschiedener Anbieter gleichzeitig zugegriffen werden kann.
OpenRouter API-Key erhalten
- Registrieren Sie sich auf OpenRouter
- Erstellen Sie einen API-Key im Dashboard
CLI-Konfiguration
export OPENROUTER_API_KEY="sk-or-..."
openclaw onboard --auth-choice apiKey --token-provider openrouter --token "$OPENROUTER_API_KEY"
Konfigurationsdatei
Dateipfad: ~/.openclaw/openclaw.json
{
env: { OPENROUTER_API_KEY: "sk-or-..." },
agents: {
defaults: {
model: { primary: "openrouter/google/gemini-2.0-flash-exp" },
},
},
}
💡 Vorteile von OpenRouter
- Preisvergleich mehrerer Anbieter: Wählen Sie Gemini-Modelle von verschiedenen Hostern
- Einheitliche Schnittstelle: Nur ein API-Key für den Zugriff auf viele Modelle erforderlich
- OpenAI-Format-Kompatibilität: Modellwechsel ohne Codeänderung möglich
Methode 4: Zugriff über benutzerdefinierte Anbieter
Wenn eine Plattform eine OpenAI-kompatible Schnittstelle unter /v1/chat/completions anbietet, kann diese als benutzerdefinierter Provider konfiguriert werden.
Beispiel für Konfigurationsdatei
Dateipfad: ~/.openclaw/openclaw.json
{
agents: {
defaults: {
model: { primary: "custom-gemini/gemini-1.5-flash" },
},
},
models: {
mode: "merge",
providers: {
"custom-gemini": {
baseUrl: "https://your-gemini-proxy.example.com/v1",
apiKey: "${CUSTOM_GEMINI_API_KEY}",
api: "openai-completions",
models: [
{
id: "gemini-1.5-flash",
name: "Gemini 1.5 Flash",
contextWindow: 1000000,
maxTokens: 8192,
},
],
},
},
},
}
Beschreibung der Konfigurationsfelder
| Feld | Beschreibung |
|---|---|
baseUrl | Basis-URL der API |
api | Schnittstellentyp: openai-completions |
apiKey | API-Key, unterstützt die ${ENV_VAR}-Syntax |
models[].contextWindow | Größe des Kontextfensters |
models[].maxTokens | Maximale Anzahl an Ausgabe-Token |
Konfiguration von Thinking Blocks
Gemini 2.0 Modelle unterstützen „Thinking Blocks“ zur Erweiterung der logischen Fähigkeiten. OpenClaw verarbeitet diese Konfigurationen automatisch zur Sicherstellung der Kompatibilität:
Dateipfad: ~/.openclaw/openclaw.json
{
agents: {
defaults: {
models: {
"google-generative-ai/gemini-2.0-flash-exp": {
params: {
thinkingConfig: {
thinkingBudget: 8192,
},
},
},
}
},
},
}
Fehlerbehebung (FAQ)
401 Fehler / API-Key ungültig
- Überprüfen Sie, ob der API-Key korrekt ist und nicht widerrufen wurde
- Stellen Sie sicher, dass der Key Berechtigungen für die Generative Language API hat
Rate Limits (Ratenbegrenzung)
- Gemini hat stufenbasierte Limits (Free Tier: 15 RPM)
- Überwachen Sie die Nutzung im Google AI Studio Dashboard
- Lösung: Die Nutzung von Defapi kann höhere Kontingente ermöglichen
Tool Schema Fehler
- Google unterstützt bestimmte JSON Schema Keywords nicht (z.B.
patternProperties,additionalPropertiesusw.) - OpenClaw entfernt nicht unterstützte Keywords automatisch
- Komplexe Schemata sollten ggf. in einfachere Tool-Definitionen aufgeteilt werden
Projekt-ID erforderlich
- Setzen Sie die Umgebungsvariablen
GOOGLE_CLOUD_PROJECToderGOOGLE_CLOUD_PROJECT_ID
Kostenvergleich
| Zugriffsmethode | Gemini 1.5 Flash Input | Gemini 1.5 Flash Output |
|---|---|---|
| Google Offiziell | $0.075/M | $0.30/M |
| Defapi (halber Preis) | ~$0.0375/M | ~$0.15/M |
Für Szenarien mit häufigen Aufrufen kann die Nutzung von Defapi die Kosten erheblich senken.