WARNING
本文需要 Node.js 22+ 和 Docker 环境。
想象一下:你对着一台服务器说话,它就能帮你分析基因数据、筛选药物、生成科研图表——这就是 MedgeClaw。它是基于 OpenClaw 和 Claude Code 构建的生物医药 AI 研究助手,集成了 140 个专业科学技能。
目标读者
- 生命科学领域的研究人员
- 需要自动化数据分析的生物信息学工程师
- 想用 AI 辅助科研的高校学生
简介
MedgeClaw 的核心是一个对话式 AI 代理,底层通过 Claude Code 执行分析任务。你可以通过 WhatsApp、Slack、Discord 或飞书向它发送指令,它会自动:
- 读写本地文件
- 执行 Python/R 代码
- 操作 Docker 容器
- 生成可视化图表
- 撰写科研报告
关键在于:MedgeClaw 需要配置一个模型提供商才能工作。默认使用 Anthropic 官方 API,但价格较高。本文将介绍多种接入方案,其中 Defapi 提供官方半价服务。
方法一:Defapi(推荐 - 半价方案)
Defapi 是一个兼容 OpenAI 格式的模型聚合平台,提供 Claude 系列模型的半价服务。
为什么选择 Defapi?
- 价格只有官方的 50%
- 完全兼容 Claude Code 的
v1/chat/completions接口 - 国内可直接访问,无需代理
配置步骤
步骤1:获取 API Key
访问 https://defapi.org , 注册账号并获取 API Key。
步骤2:修改配置
编辑项目根目录的 .env 文件:
# Defapi 配置
ANTHROPIC_API_KEY=dk-xxxxxxxxxxxxxxxx
ANTHROPIC_BASE_URL=https://api.defapi.org
MODEL=anthropic/claude-sonnet-4.5
# 重要:Claude Code 预检需要配置
ANTHROPIC_SMALL_FAST_MODEL=anthropic/claude-sonnet-4.5
步骤3:执行安装脚本
bash setup.sh
这会自动完成以下操作:
- 配置
~/.claude/settings.json - 构建 Docker 分析环境(R + Python + RStudio + JupyterLab)
- 同步 MedgeClaw 技能到 OpenClaw
步骤4:启动服务
# 启动分析环境
docker compose up -d
# 启动 OpenClaw
openclaw onboard
方法二:Anthropic 官方 API
如果追求最高稳定性,可以直接使用官方接口。
# 官方 Anthropic API
ANTHROPIC_API_KEY=sk-ant-api03-xxxxxxxxxxxx
ANTHROPIC_BASE_URL=https://api.anthropic.com
MODEL=claude-sonnet-4-6
# 无需配置 SMALL_FAST_MODEL
方法三:OpenRouter
OpenRouter 聚合了全球 200+ 模型。
ANTHROPIC_API_KEY=sk-or-v1-xxxxxxxxxxxxxxxx
ANTHROPIC_BASE_URL=https://openrouter.ai/api/v1
MODEL=anthropic/claude-3.5-sonnet
ANTHROPIC_SMALL_FAST_MODEL=anthropic/claude-3.5-haiku
方法四:MiniMax(国内可用)
如果你在国内,MiniMax 是一个不错的选择。
ANTHROPIC_API_KEY=your_minimax_key
ANTHROPIC_BASE_URL=https://api.minimax.chat/anthropic
MODEL=minimax-2.1
ANTHROPIC_SMALL_FAST_MODEL=claude-sonnet-4-20250514
方法五:Ollama(本地部署)
如果需要完全离线运行,可以使用 Ollama。
# 安装 Ollama
curl -fsSL https://ollama.ai/install.sh | sh
ollama pull qwen2.5:14b
# 配置
ANTHROPIC_API_KEY=ollama
ANTHROPIC_BASE_URL=http://localhost:11434/v1
MODEL=qwen2.5:14b
验证是否正常工作
配置完成后,运行以下命令验证:
# 应该 30 秒内完成,返回 "hello"
claude --dangerously-skip-permissions -p 'run: echo hello'
如果挂起,说明 ANTHROPIC_SMALL_FAST_MODEL 配置不正确,Claude Code 的预检模型不被当前 API 支持。
内部机制:为什么需要预检模型?
这是一个有趣的设计。Claude Code 每次执行 bash 命令前,会先用轻量模型(默认 Haiku)做安全检查,识别潜在的恶意操作:
# 伪代码:预检逻辑
async def preflight_check(command: str) -> bool:
# 用轻量模型分析命令意图
model = os.environ.get("ANTHROPIC_SMALL_FAST_MODEL", "claude-3-5-haiku")
result = await call_api(model, f"Is this command safe? {command}")
return result.safety_score > 0.8
这导致一个问题:大多数第三方 API 不支持 Haiku,因为它是 Anthropic 独有的模型。这就是为什么使用代理时必须配置 ANTHROPIC_SMALL_FAST_MODEL。
5种常见用例
1. RNA-seq 差异表达分析
Analyze RNA-seq data at data/counts.csv vs data/meta.csv, treatment vs control
MedgeClaw 会自动:
- 加载计数矩阵
- 运行 DESeq2/edgeR 差异分析
- 生成火山图、热图
- 输出显著差异基因列表
2. 临床生存分析
Run survival analysis on data/clinical.csv, time=OS_months, event=OS_status
自动执行 Kaplan-Meier 曲线、Cox 比例风险模型。
3. 单细胞 RNA-seq 聚类
Perform single-cell RNA-seq analysis on the 10X data in data/10x/
使用 Scanpy 完成降维、聚类、marker 鉴定。
4. 药物虚拟筛选
Virtual screen EGFR inhibitors from ChEMBL (IC50 < 50nM), generate SAR report
从 ChEMBL 数据库筛选化合物,生成构效关系报告。
5. 文献综述生成
Search PubMed for recent papers on CRISPR base editing, summarize top 10
自动检索 PubMed,生成文献摘要和分析。