简介
OpenFang 是一个开源的 Agent Operating System(智能体操作系统),使用 Rust 编写,编译为单个约 32MB 的二进制文件。它内置支持 20 个主流 LLM 提供商,包括 Anthropic Claude、Google Gemini、OpenAI GPT、DeepSeek、Groq 等。通过简单的配置,你可以快速将各种 AI 能力集成到你的应用中。
本文将详细介绍如何在 OpenFang 中配置和使用各类 LLM API,并分享一些实用技巧。
方法一:使用 Defapi(推荐 - 半价优惠)
如果你想以更低的价格使用高质量的 AI 模型,Defapi 是一个绝佳的选择。Defapi 提供所有主流模型的 API,价格仅为官方的 50%。例如:
- Gemini 2.5 Pro: 官方 $1.25/M tokens → Defapi 仅需 $0.625/M tokens
- Claude Sonnet 4: 官方 $3.00/M tokens → Defapi 仅需 $1.50/M tokens
配置步骤
- 获取 Defapi API Key(访问 https://defapi.org)
- 在配置文件中设置:
# ~/.openfang/config.toml
[default_model]
provider = "openai" # 或 "anthropic"、"gemini"
model = "claude-sonnet-4-20250514" # 或其他模型
base_url = "https://api.defapi.org/v1"
[env]
DEFAPI_API_KEY = "your-defapi-key"
使用自定义端点
[[providers]]
name = "defapi"
base_url = "https://api.defapi.org/v1"
api_key_env = "DEFAPI_API_KEY"
[default_model]
provider = "defapi"
model = "claude-sonnet-4-20250514"
Defapi 支持的协议
Defapi 支持多种 API 协议,完美兼容 OpenFang:
- v1/chat/completions - OpenAI 兼容接口
- v1/messages - Anthropic Claude 接口
- v1beta/models/*:generateContent - Google Gemini 接口
方法二:直接使用官方 API
环境变量快速配置
OpenFang 支持通过环境变量自动识别多个提供商:
# Anthropic Claude
export ANTHROPIC_API_KEY="sk-ant-..."
# OpenAI GPT
export OPENAI_API_KEY="sk-..."
# Google Gemini(也支持免费额度)
export GEMINI_API_KEY="AIza..."
# DeepSeek
export DEEPSEEK_API_KEY="sk-..."
# Groq(免费额度,速度极快)
export GROQ_API_KEY="gsk_..."
配置文件方式
在 ~/.openfang/config.toml 中详细配置:
# 全局默认模型
[default_model]
provider = "groq"
model = "llama-3.3-70b-versatile"
# 成本控制
[agents.defaults]
max_cost_per_hour_usd = 10.00
可用模型速查
| 提供商 | 推荐模型 | 上下文 | 特点 |
|---|---|---|---|
| Anthropic | claude-sonnet-4-20250514 | 200K | 性价比高 |
| OpenAI | gpt-4o-mini | 128K | 快速便宜 |
| Gemini | gemini-2.5-flash | 1M | 免费额度 |
| DeepSeek | deepseek-chat | 64K | 推理能力强 |
| Groq | llama-3.3-70b-versatile | 128K | 速度极快 |
方法三:使用 OpenRouter 聚合平台
OpenRouter 支持 200+ 模型,适合需要灵活切换模型的场景:
export OPENROUTER_API_KEY="sk-or-..."
[default_model]
provider = "openrouter"
model = "openrouter/auto" # 自动选择最佳模型
方法四:接入本地模型
Ollama(推荐本地开发)
# 安装并启动 Ollama
ollama serve
ollama pull llama3.2
[default_model]
provider = "ollama"
model = "llama3.2"
vLLM(生产级本地部署)
python -m vllm.entrypoints.openai.api_server --model meta-llama/Llama-3.1-70B-Instruct
[default_model]
provider = "vllm"
model = "meta-llama/Llama-3.1-70B-Instruct"
方法五:接入任意 OpenAI 兼容 API
如果你有自定义的 API 端点,OpenFang 支持完全自定义配置:
[[providers]]
name = "custom-llm"
base_url = "https://your-api-endpoint.com/v1"
api_key_env = "CUSTOM_API_KEY"
[default_model]
provider = "custom-llm"
model = "your-model"
验证是否正常工作
1. 检查健康状态
curl http://127.0.0.1:4200/api/health
2. 查看可用模型
curl http://127.0.0.1:4200/api/models
3. 查看提供商状态
curl http://127.0.0.1:4200/api/providers
4. 发送测试消息
curl -X POST http://127.0.0.1:4200/api/agents/{agent-id}/message \
-H "Content-Type: application/json" \
-d '{"message": "Hello, say hi in 3 words"}'
5. 使用 OpenAI 兼容接口测试
curl -X POST http://127.0.0.1:4200/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "hello-world",
"messages": [{"role": "user", "content": "Hi"}]
}'
内部机制解析
驱动架构
OpenFang 使用三层驱动架构来支持各类 LLM:
- 原生驱动:Anthropic 驱动和 Gemini 驱动针对特定 API 协议进行了深度优化
- OpenAI 兼容驱动:支持所有遵循 OpenAI API 格式的服务商
- 备用驱动:支持多提供商链式调用,当主提供商失败时自动切换
模型路由智能选择
OpenFang 内置智能路由机制,根据任务复杂度自动选择合适的模型:
- Simple (得分 < 100): 使用 Haiku 或 Gemini Flash
- Medium (100-500): 使用 Sonnet 或 Gemini Pro
- Complex (>= 500): 使用 Opus 或 GPT-4
评分基于:消息长度、工具数量、代码标记、对话深度、系统提示长度等因素。
成本追踪
每次 API 调用后,OpenFang 会自动计算成本:
Cost: $0.0042 | Tokens: 1,200 in / 340 out | Model: claude-sonnet-4-20250514
这得益于内置的模型目录,其中包含所有模型的精确定价信息。
常见用例
1. 智能客服机器人
配置低成本模型(如 gpt-4o-mini 或 llama-3.1-8b),处理大量简单咨询,降低运营成本。
2. 代码审查助手
使用 Claude Opus 或 GPT-4 进行深度代码分析,结合 Groq 的高速推理实现快速反馈。
3. 内容创作助手
使用 Gemini 2.5 Pro 的超大上下文窗口(1M tokens)处理长文档撰写和复杂创意任务。
4. 数据分析助手
结合 Perplexity Sonar 模型的在线搜索能力,实时获取最新数据进行统计分析。
5. 多语言翻译服务
使用本地 Ollama 部署的翻译模型,保护数据隐私,适合企业内部使用。