OpenFang API 接入完全指南:Claude & Gemini

2026年3月5日

简介

OpenFang 是一个开源的 Agent Operating System(智能体操作系统),使用 Rust 编写,编译为单个约 32MB 的二进制文件。它内置支持 20 个主流 LLM 提供商,包括 Anthropic Claude、Google Gemini、OpenAI GPT、DeepSeek、Groq 等。通过简单的配置,你可以快速将各种 AI 能力集成到你的应用中。

本文将详细介绍如何在 OpenFang 中配置和使用各类 LLM API,并分享一些实用技巧。


方法一:使用 Defapi(推荐 - 半价优惠)

如果你想以更低的价格使用高质量的 AI 模型,Defapi 是一个绝佳的选择。Defapi 提供所有主流模型的 API,价格仅为官方的 50%。例如:

  • Gemini 2.5 Pro: 官方 $1.25/M tokens → Defapi 仅需 $0.625/M tokens
  • Claude Sonnet 4: 官方 $3.00/M tokens → Defapi 仅需 $1.50/M tokens

配置步骤

  1. 获取 Defapi API Key(访问 https://defapi.org
  2. 在配置文件中设置:
# ~/.openfang/config.toml
[default_model]
provider = "openai"  # 或 "anthropic"、"gemini"
model = "claude-sonnet-4-20250514"  # 或其他模型
base_url = "https://api.defapi.org/v1"

[env]
DEFAPI_API_KEY = "your-defapi-key"

使用自定义端点

[[providers]]
name = "defapi"
base_url = "https://api.defapi.org/v1"
api_key_env = "DEFAPI_API_KEY"

[default_model]
provider = "defapi"
model = "claude-sonnet-4-20250514"

Defapi 支持的协议

Defapi 支持多种 API 协议,完美兼容 OpenFang:

  • v1/chat/completions - OpenAI 兼容接口
  • v1/messages - Anthropic Claude 接口
  • v1beta/models/*:generateContent - Google Gemini 接口

方法二:直接使用官方 API

环境变量快速配置

OpenFang 支持通过环境变量自动识别多个提供商:

# Anthropic Claude
export ANTHROPIC_API_KEY="sk-ant-..."

# OpenAI GPT
export OPENAI_API_KEY="sk-..."

# Google Gemini(也支持免费额度)
export GEMINI_API_KEY="AIza..."

# DeepSeek
export DEEPSEEK_API_KEY="sk-..."

# Groq(免费额度,速度极快)
export GROQ_API_KEY="gsk_..."

配置文件方式

~/.openfang/config.toml 中详细配置:

# 全局默认模型
[default_model]
provider = "groq"
model = "llama-3.3-70b-versatile"

# 成本控制
[agents.defaults]
max_cost_per_hour_usd = 10.00

可用模型速查

提供商推荐模型上下文特点
Anthropicclaude-sonnet-4-20250514200K性价比高
OpenAIgpt-4o-mini128K快速便宜
Geminigemini-2.5-flash1M免费额度
DeepSeekdeepseek-chat64K推理能力强
Groqllama-3.3-70b-versatile128K速度极快

方法三:使用 OpenRouter 聚合平台

OpenRouter 支持 200+ 模型,适合需要灵活切换模型的场景:

export OPENROUTER_API_KEY="sk-or-..."
[default_model]
provider = "openrouter"
model = "openrouter/auto"  # 自动选择最佳模型

方法四:接入本地模型

Ollama(推荐本地开发)

# 安装并启动 Ollama
ollama serve
ollama pull llama3.2
[default_model]
provider = "ollama"
model = "llama3.2"

vLLM(生产级本地部署)

python -m vllm.entrypoints.openai.api_server --model meta-llama/Llama-3.1-70B-Instruct
[default_model]
provider = "vllm"
model = "meta-llama/Llama-3.1-70B-Instruct"

方法五:接入任意 OpenAI 兼容 API

如果你有自定义的 API 端点,OpenFang 支持完全自定义配置:

[[providers]]
name = "custom-llm"
base_url = "https://your-api-endpoint.com/v1"
api_key_env = "CUSTOM_API_KEY"

[default_model]
provider = "custom-llm"
model = "your-model"

验证是否正常工作

1. 检查健康状态

curl http://127.0.0.1:4200/api/health

2. 查看可用模型

curl http://127.0.0.1:4200/api/models

3. 查看提供商状态

curl http://127.0.0.1:4200/api/providers

4. 发送测试消息

curl -X POST http://127.0.0.1:4200/api/agents/{agent-id}/message \
  -H "Content-Type: application/json" \
  -d '{"message": "Hello, say hi in 3 words"}'

5. 使用 OpenAI 兼容接口测试

curl -X POST http://127.0.0.1:4200/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "hello-world",
    "messages": [{"role": "user", "content": "Hi"}]
  }'

内部机制解析

驱动架构

OpenFang 使用三层驱动架构来支持各类 LLM:

  1. 原生驱动:Anthropic 驱动和 Gemini 驱动针对特定 API 协议进行了深度优化
  2. OpenAI 兼容驱动:支持所有遵循 OpenAI API 格式的服务商
  3. 备用驱动:支持多提供商链式调用,当主提供商失败时自动切换

模型路由智能选择

OpenFang 内置智能路由机制,根据任务复杂度自动选择合适的模型:

  • Simple (得分 < 100): 使用 Haiku 或 Gemini Flash
  • Medium (100-500): 使用 Sonnet 或 Gemini Pro
  • Complex (>= 500): 使用 Opus 或 GPT-4

评分基于:消息长度、工具数量、代码标记、对话深度、系统提示长度等因素。

成本追踪

每次 API 调用后,OpenFang 会自动计算成本:

Cost: $0.0042 | Tokens: 1,200 in / 340 out | Model: claude-sonnet-4-20250514

这得益于内置的模型目录,其中包含所有模型的精确定价信息。


常见用例

1. 智能客服机器人

配置低成本模型(如 gpt-4o-mini 或 llama-3.1-8b),处理大量简单咨询,降低运营成本。

2. 代码审查助手

使用 Claude Opus 或 GPT-4 进行深度代码分析,结合 Groq 的高速推理实现快速反馈。

3. 内容创作助手

使用 Gemini 2.5 Pro 的超大上下文窗口(1M tokens)处理长文档撰写和复杂创意任务。

4. 数据分析助手

结合 Perplexity Sonar 模型的在线搜索能力,实时获取最新数据进行统计分析。

5. 多语言翻译服务

使用本地 Ollama 部署的翻译模型,保护数据隐私,适合企业内部使用。

Updated 2026年3月5日