Prise en main en 20 minutes|5 Agents en collaboration + 34 compétences de recherche|Transformez Claude Code en votre laboratoire de recherche sur mesure
Présentation du projet
Oh My Paper est un plugin open source pour Claude Code. Le problème qu’il résout est très concret : Claude Code peut vous aider à écrire du code, mais la recherche scientifique ne se limite pas à coder — vous devez aussi mener la recherche bibliographique, évaluer les pistes d’innovation, concevoir les expériences, rédiger l’article et vérifier les citations, et aucun outil ne relie correctement toutes ces étapes.
Oh My Paper met en place, pour Claude Code, une chaîne de travail de recherche structurée : 5 rôles d’Agents dédiés, 34 compétences de recherche chargées à la demande, et des Hooks en arrière-plan qui mémorisent automatiquement l’état du projet. Une fois configuré, à chaque ouverture de Claude Code, il vous demande « Quel rôle voulez-vous faire aujourd’hui ? », puis charge automatiquement le fichier de mémoire correspondant pour reprendre là où vous vous étiez arrêté. Aucun besoin d’interface graphique : toutes les actions s’effectuent uniquement dans le terminal.
TIP
Adresse du projet : https://github.com/LigphiDonk/Oh-my--paper, licence MIT, compatible avec l’écosystème des plugins de Claude Code.
Public cible
Cet article s’adresse aux développeurs suivants :
- 1 à 5 ans d’expérience de développement, ayant déjà vécu (ou en train de vivre) le processus d’écriture d’un article et de conduite de recherches
- Souhaitant utiliser l’IA pour aider à la recherche, mais n’aimant pas jongler entre différents outils
- Intéressés par les modes de collaboration entre Agents et l’isolation de mémoire entre rôles : vous cherchez des cas d’usage concrets
Si vous avez déjà une direction de recherche claire (par exemple en CV, NLP ou architecture système), ou si vous faites une veille technique interne en entreprise, la chaîne Oh My Paper s’applique parfaitement.
Dépendances clés et environnement
Avant de commencer, vérifiez que votre environnement répond aux conditions suivantes :
| Dépendance | Exigence minimale | Description |
|---|---|---|
| Claude Code | Dernière version | Guide officiel d’installation |
| Node.js | v18+ | Base de fonctionnement des plugins Claude Code |
| Python | 3.10+ | Scripts d’expériences distantes, compilation LaTeX |
| LaTeX | TeX Live 2020+ | Optionnel, pour la rédaction d’articles |
| Réseau | Accès à ArXiv / Semantic Scholar | Indispensable pour la recherche de littérature |
WARNING
Oh My Paper est un plugin pour Claude Code : ce n’est pas une application autonome. Vous devez d’abord installer Claude Code pour pouvoir l’utiliser. Pour les utilisateurs Windows, WSL2 est fortement recommandé pour la meilleure expérience.
Arborescence complète du projet
Après avoir exécuté /omp:setup, la structure du répertoire du projet est la suivante :
my-research/
├── paper/ # Espace de travail LaTeX pour l’article
│ ├── main.tex
│ ├── sections/ # Fichiers .tex de chaque chapitre
│ └── refs/ # Fichier de bibliographie .bib
├── experiment/ # Code et scripts d’expérimentation
├── survey/ # Sorties de la recherche bibliographique
├── ideation/ # Pistes d’innovation et résultats d’évaluation
├── promotion/ # Slides, démos, supports de communication
├── skills/ # Compétences personnalisées locales au projet
├── .pipeline/
│ ├── tasks/
│ │ └── tasks.json # Arbre des tâches sur toutes les étapes
│ ├── docs/
│ │ └── research_brief.json
│ └── memory/ # Fichiers de mémoire des Agents
│ ├── project_truth.md # Référentiel du projet + journal des avancées
│ ├── orchestrator_state.md
│ ├── execution_context.md
│ ├── experiment_ledger.md
│ ├── result_summary.md
│ ├── review_log.md
│ ├── literature_bank.md
│ ├── agent_handoff.md
│ └── decision_log.md
├── .claude/
│ └── settings.json # Hook SessionStart enregistré
├── CLAUDE.md
└── AGENTS.md
Étapes d’installation pas à pas
Étape 1 : ajouter le marché de plugins
Dans Claude Code, exécutez la commande suivante pour enregistrer l’adresse du marketplace d’Oh My Paper :
/plugin marketplace add LigphiDonk/Oh-my--paper
Cette étape n’exige pas de cloner l’ensemble du dépôt : Claude Code récupère la liste des plugins depuis le marketplace.
Étape 2 : installer le plugin
/plugin install omp@oh-my-paper
Une fois l’installation terminée, exécutez /plugin pour vérifier :
/plugin
# La sortie attendue doit inclure : omp @ oh-my-paper, Status: Enabled
Étape 3 : redémarrer Claude Code
WARNING
C’est l’étape la plus facile à oublier. Le hook SessionStart doit redémarrer Claude Code pour prendre effet ; si vous sautez cette étape, le menu de sélection des rôles n’apparaîtra pas à chaque ouverture de session.
Fermez complètement la fenêtre actuelle de Claude Code, puis rouvrez-la.
Étape 4 : initialiser le projet de recherche
Dans le répertoire de votre projet de recherche, exécutez :
/omp:setup
Cette commande fait trois choses :
- Crée le répertoire
.pipeline/ainsi que tous ses sous-répertoires et fichiers de mémoire - Enregistre le hook
SessionStartdans.claude/settings.json - Génère les fichiers
tasks.jsonetresearch_brief.jsonpar défaut
Une fois l’initialisation terminée, la structure du répertoire correspond à celle indiquée dans « Arborescence complète du projet » ci-dessus.
Vérifier que l’installation a réussi
Rouvrez Claude Code (dans le répertoire du projet initialisé). Vous devriez voir apparaître une fenêtre de sélection du rôle demandant avec quel rôle vous souhaitez commencer votre travail aujourd’hui. Si vous voyez ce menu, c’est que toute l’installation est correcte.
Détails de la chaîne de recherche en 5 étapes
Oh My Paper découpe l’ensemble du processus de recherche en 5 étapes ; chaque étape correspond à une commande et à un ensemble de compétences recommandées.
Étape 1|Survey : recherche bibliographique
Exécutez la commande :
/omp:survey
Cette étape sert à : faire en sorte que Claude recherche, selon votre thématique, des articles pertinents, extraie les résumés et les informations clés, puis regroupe tout dans un fichier literature_bank.md.
Compétences couramment utilisées :
paper-finder— recherche des travaux pertinents sur ArXiv et Semantic Scholarpaper-analyzer— extrait les contributions majeures, les méthodes et les limites des articlesbiorxiv-database— si vous travaillez en biomédecine, recherche sur BioRxiv
Fichier(s) de sortie principal(aux) : survey/literature_bank.md
Flux de travail typique :
Vous : /omp:survey
→ Claude vous demande des mots-clés pour la direction de recherche
→ Recherche automatique → constitution des cartes de références → écriture dans literature_bank.md
→ Affichage du résumé de la recherche bibliographique pour confirmer si vous souhaitez ajouter des éléments
Étape 2|Ideation : génération des pistes d’innovation
Exécutez la commande :
/omp:ideate
À partir des résultats de la recherche bibliographique de l’étape 1, Claude génère des pistes d’innovation potentielles et évalue leur faisabilité une par une.
Compétences couramment utilisées :
inno-idea-generation— brainstorm d’innovations à grande échelleinno-idea-eval— notation selon trois dimensions : novelty, feasibility, impactresearch-idea-convergence— convergence vers 2-3 directions les plus prometteuses
Fichier(s) de sortie principal(aux) : résultats d’évaluation dans le répertoire ideation/
TIP
À la fin de l’étape Ideation, pensez à demander à Claude d’écrire la direction finale sélectionnée dans research_brief.json : les étapes suivantes (expériences et rédaction) référenceront ce fichier.
Étape 3|Experiment : conception et exécution des expériences
Exécutez la commande :
/omp:experiment
Cette étape couvre la partie la plus large : conception du plan expérimental, écriture du code d’évaluation, exécution en local ou à distance, puis analyse des résultats.
Compétences couramment utilisées :
inno-experiment-dev— génère une ossature de code d’expérienceresearch-experiment-driver— gère la boucle d’itération des expériencesremote-experiment— se connecte via SSH à un nœud GPU distant pour exécuter (voir la section « Expériences distantes »)
Fichier(s) de sortie principal(aux) : répertoire experiment/ + experiment_ledger.md (historique des expériences)
Étape 4|Publication : rédaction des sections de l’article
Exécutez la commande :
/omp:write
Convertit les résultats d’expériences en texte d’article, génère les figures et les titres, et gère les fichiers LaTeX.
Compétences couramment utilisées :
inno-paper-writing— génération générale des sections d’un articleml-paper-writing— modèles d’articles pour Machine Learning / IAscientific-writing— normes de rédaction académique (temps, formulation, structure)inno-figure-gen— génération du code des figures (Matplotlib, Plotly)inno-reference-audit— vérifie automatiquement si le format des citations est correct
Fichier(s) de sortie principal(aux) : fichiers LaTeX dans le répertoire paper/
Étape 5|Promotion : promotion des résultats
Exécutez la commande :
/omp:plan
# Dans l’étape Promotion, sélectionnez les compétences liées à la préparation des supports de démo
Transformez les résultats de l’article en slides de présentation, blog technique, proposition de Grant, etc.
Compétences couramment utilisées :
making-academic-presentations— génération de PPT pour présentations académiquesinno-grant-proposal— rédaction d’une demande de financementinno-rclone-to-overleaf— synchronisation automatique de LaTeX local vers Overleaf
Les 5 rôles d’Agents et le mécanisme d’isolation de la mémoire
C’est l’idée de conception la plus fondamentale d’Oh My Paper.
Vue d’ensemble des rôles d’Agent
| Rôle | Description des responsabilités | Fichier(s) mémoire principal(aux) |
|---|---|---|
| Conductor(coordinateur) | Planification globale, répartition des sous-tâches, mise à jour automatique de l’état du projet à la fin de chaque étape | project_truth.md · tasks.json · orchestrator_state.md |
| Literature Scout(recherchiste bibliographique) | Recherche d’articles, organisation des notes bibliographiques | literature_bank.md · execution_context.md |
| Experiment Driver(pilote d’expériences) | Conçoit les expériences, écrit le code d’évaluation, exécute et enregistre | experiment_ledger.md · research_brief.json |
| Paper Writer(rédacteur d’article) | Rédige les sections, génère les figures, vérifie les citations | result_summary.md · literature_bank.md |
| Reviewer(évaluateur) | Relecture par les pairs, contrôle de la qualité, vérification de la cohérence | execution_context.md · project_truth.md |
Principe d’isolation de la mémoire
Chaque rôle ne peut lire et écrire que les fichiers de mémoire relevant de ses responsabilités. Il ne peut pas voir l’état interne des autres rôles. Le bénéfice principal de ce design est de prévenir la pollution du contexte — par exemple, Paper Writer ne verra pas les résultats intermédiaires de débogage de Experiment Driver, et Literature Scout ne sera pas influencé dans son évaluation bibliographique parce qu’il a vu des données d’expérience.
La communication entre rôles se fait via deux « zones publiques » :
tasks.json ← tous les rôles lisent/écrivent, enregistre l’état d’avancement des tâches
project_truth.md ← tous les rôles ajoutent, enregistre l’avancement global du projet
Synchronisation automatique de l’état
Le détail de conception le plus important : Conductor met automatiquement à jour ces deux fichiers publics après chaque sous-tâche, sans que vous ayez besoin de le rappeler.
Sous-tâche terminée
→ Conductor marque automatiquement la tâche correspondante comme done dans tasks.json
→ Conductor ajoute automatiquement une entrée d’avancement dans project_truth.md
→ À la prochaine ouverture de session, Claude lit ces deux fichiers et reprend à partir du point d’arrêt
TIP
Si vous voulez forcer Conductor à afficher l’avancement global actuel, exécutez /omp:plan : il lit tasks.json et project_truth.md, puis affiche l’arbre complet des tâches et l’étape en cours.
Récapitulatif des 34 compétences de recherche
Oh My Paper intègre 34 compétences de recherche couvrant tout le cycle de la recherche. Elles sont organisées ci-dessous par catégorie afin de faciliter la recherche à la demande :
Littérature
paper-finder— recherche d’articles sur plusieurs bases de donnéespaper-analyzer— extraction des contributions principales des articlespaper-image-extractor— extrait les figures à partir des PDFresearch-literature-trace— retrace la chaîne de citations d’un articlebiorxiv-database— recherche spécialisée BioRxivdataset-discovery— découverte de jeux de données pertinents
Recherche et idéation
inno-deep-research— mode de recherche approfondiegemini-deep-research— intégration de recherche approfondie avec Geminiinno-code-survey— recherche et analyse d’implémentations de codeinno-idea-generation— génération d’innovations en lotinno-idea-eval— évaluation multidimensionnelle des innovationsresearch-idea-convergence— convergence vers la direction optimale
Expérimentation
inno-experiment-dev— génération du code d’expérimentationinno-experiment-analysis— analyse des résultats d’expérienceresearch-experiment-driver— gestion d’expériences itérativesremote-experiment— boucle d’expérimentation GPU à distance
Rédaction
inno-paper-writing— sections d’article génériquesml-paper-writing— article pour la direction ML/IAscientific-writing— normes de rédaction académiqueinno-figure-gen— génération de figuresinno-reference-audit— audit du format des citationsresearch-paper-handoff— règles de passation entre Agents
Planification et évaluation
inno-pipeline-planner— planification de la chaîneresearch-pipeline-planner— planification des étapes de rechercheinno-paper-reviewer— évaluation de la qualité d’un articleinno-prepare-resources— liste de préparation des ressourcesinno-rclone-to-overleaf— synchronisation vers Overleaf
Présentation et proposition
making-academic-presentations— PPT pour présentations académiquesinno-grant-proposal— demande de financement
Planification et dispatch d’Agents
claude-code-dispatch— dispatch de sous-tâches pour Claude Codecodex-dispatch— dispatch de tâches pour exécution parallèle par Codex
Spécialisations par domaine
academic-researcher— recherche académique généralebioinformatics-init-analysis— analyse en bioinformatiqueresearch-news— suivi des dernières actualités du domaine de recherche
Les compétences se chargent à la demande. Lorsque vous lancez /omp:survey, Claude recommandera automatiquement les compétences pertinentes, et vous pouvez aussi ajouter des compétences personnalisées dans le répertoire skills/.
Démonstration complète d’un workflow typique
Prenons l’exemple d’un article orienté IA : on parcourt entièrement la chaîne en 5 étapes.
Étape 1 : initialisation du projet
# Entrez dans le répertoire de recherche
cd ~/research/my-paper
# Dans Claude Code :
/omp:setup
# Sortie : .pipeline/ créé, hook SessionStart enregistré
Étape 2 : recherche bibliographique
# Dans Claude Code :
/omp:survey
# → Claude vous demande : « Quelle est votre direction de recherche ? »
# → Entrée : reasoning LLM, chain-of-thought prompting
# → Claude recherche automatiquement ArXiv/Semantic Scholar
# → Organise 20+ travaux connexes dans survey/literature_bank.md
# → Sortie : résumé de la recherche pour confirmer si vous devez compléter
Étape 3 : génération des pistes d’innovation
/omp:ideate
# → Claude lit literature_bank.md
# → Génère 8 pistes d’innovation potentielles
# → Pour chaque piste : notation selon novelty / feasibility / impact
# → Convergence vers 2 directions, écriture dans research_brief.json
Étape 4 : conception et exécution des expériences
/omp:experiment
# → Claude lit research_brief.json
# → Conçoit le plan expérimental (baseline, méthodes de comparaison, métriques d’évaluation)
# → Génère le code d’expérience dans le répertoire experiment/
# → Lance l’évaluation locale, analyse les résultats des métriques
# → Écrit les résultats dans experiment_ledger.md
Si vous devez exécuter sur un nœud GPU distant :
# Configurer le nœud de calcul distant (dans le répertoire experiment/)
{
"host": "gpu-server.example.com",
"user": "researcher",
"key_path": "~/.ssh/id_rsa",
"remote_dir": "/home/researcher/experiments"
}
# Dans Claude Code :
/omp:experiment
# → Claude détecte compute-config.json
# → Utilise la compétence remote-experiment
# → rsync du code vers le serveur distant → exécution via SSH → récupération des résultats
# → Analyse automatique des metrics et écriture dans experiment_ledger.md
Étape 5 : rédaction des sections de l’article
/omp:write
# → Claude lit experiment_ledger.md + literature_bank.md
# → Génère les sections Introduction / Method / Experiment sous forme de fichiers .tex
# → Génère les figures (scripts Matplotlib) et compile vers paper/figures/
# → Audit des citations : vérifie le format du fichier .bib
Étape 6 : revue par les pairs
/omp:review
# → Claude lit l’article en tant que Reviewer
# → Vérifie la cohérence logique, la clarté des descriptions de méthodes, l’adéquation des comparaisons expérimentales
# → Produit review_log.md listant les recommandations de modification
# → Après mise à jour selon ces recommandations, relancez /omp:review jusqu’à validation
Étape 7 : synchronisation vers Overleaf
# Dans le répertoire skills/, configurer la synchronisation Overleaf
# Utiliser la compétence inno-rclone-to-overleaf
# Claude synchronise automatiquement le répertoire paper/ local vers le projet Overleaf
Détails des expériences distantes
Pour les expériences qui nécessitent de la puissance GPU, Oh My Paper prend en charge une boucle d’expérimentation complète à distance.
Flux d’architecture
Conception locale
→ Génération du code d’expérience
→ Synchronisation rsync vers le serveur distant
→ Connexion SSH au nœud distant
→ Exécution de l’expérience sur le GPU
→ Récupération des journaux de métriques
→ Analyse locale des indicateurs
→ Vérifier si les seuils sont atteints
→ Optimisation itérative / fin de l’expérience
Configuration du nœud distant
Dans le répertoire experiment/, créez compute-config.json :
{
"host": "your-gpu-server.com",
"user": "researcher",
"ssh_key": "~/.ssh/id_rsa",
"remote_workspace": "/home/researcher/omp-experiments",
"max_iterations": 5,
"success_threshold": {
"accuracy": 0.92,
"latency_ms": 200
}
}
Exécuter les expériences distantes
# Dans Claude Code :
/omp:experiment
# → Détection de compute-config.json
# → Exécution automatique : synchronisation du code → exécution via SSH → récupération des résultats
# → Si les métriques ne sont pas atteintes, ajustement des hyperparamètres puis relance (jusqu’à max_iterations fois)
# → Écriture finale dans experiment_ledger.md
WARNING
Les expériences distantes consomment la puissance de calcul et coûtent de l’argent. Il est recommandé de d’abord valider le pipeline d’expérimentation avec un petit jeu de données en local, puis de basculer vers les nœuds GPU distants pour exécuter l’expérience complète.
Délégation de tâches à Codex
Si une expérience implique de la génération de code répétitive (par exemple, exécuter 10 configurations différentes d’hyperparamètres), vous pouvez demander à Conductor de déléguer les tâches à Codex pour un traitement parallèle.
/omp:delegate
# → Conductor lit le contexte actuel des tâches
# → Génère un prompt Codex avec tout le contexte
# → Vous copiez dans un nouveau terminal : codex "..."
# → Codex s’exécute dans un terminal séparé
# → À la fin, le signal CODEX_DONE est écrit dans agent_handoff.md
# → Conductor détecte le signal, lit automatiquement les résultats et met à jour tasks.json
Ce design a un gros avantage : Claude Code et Codex tournent en même temps dans deux terminaux différents. Votre Claude Code local n’est pas monopolisé, et vous pouvez continuer à faire d’autres tâches (comme le tri bibliographique) en parallèle.
Dépannage des problèmes courants
Q1 : Après avoir exécuté /omp:setup, la sélection de rôle n’apparaît pas à chaque ouverture de Claude Code
Cause : le hook SessionStart n’a pas été correctement enregistré.
Étapes de vérification :
- Vérifiez si
.claude/settings.jsonexiste dans le répertoire du projet - Vérifiez que ce fichier contient la section de configuration
hooks
cat .claude/settings.json
# Confirmer la présence de "hooks": { "SessionStart": [...] }
S’il n’y en a pas, exécutez /omp:setup pour réinitialiser à nouveau, puis assurez-vous que Claude Code a été redémarré complètement.
Q2 : L’installation du plugin semble réussie, mais les commandes comme /omp:survey affichent « commande non reconnue »
Cause : le plugin n’est pas chargé correctement, ou Claude Code a besoin d’un redémarrage.
Étapes de résolution :
# 1. Désinstaller puis réinstaller
/plugin uninstall omp
/plugin install omp@oh-my-paper
# 2. Redémarrer complètement Claude Code (fermer toutes les fenêtres)
# 3. Vérifier l’état du plugin
/plugin
Q3 : Literature Scout ne trouve pas assez d’articles : vous voulez élargir la portée de la recherche
Cause : les mots-clés initiaux sont trop spécifiques et limitent les résultats.
Solution :
Lorsque vous exécutez /omp:survey, fournissez plusieurs synonymes et termes plus généraux :
Entrée : « LLM reasoning, chain-of-thought, CoT, deliberate reasoning, LLM planning »
au lieu de saisir uniquement : « LLM reasoning »
En même temps, dans skills/paper-finder.md, vous pouvez ajouter des sources de bases de données supplémentaires (par exemple ACL Anthology, page officielle d’ICLR).
Q4 : La description d’expérience générée par Paper Writer ne correspond pas aux résultats réels
Cause : la synchronisation entre Experiment Driver et Paper Writer n’a pas été faite à temps pour le dernier experiment_ledger.md.
Solution :
À chaque itération d’expérience terminée, avant que Paper Writer ne commence, exécutez /omp:plan pour que Conductor synchronise l’état global. Ainsi, Paper Writer lira les résultats les plus récents :
/omp:plan
# → Conductor affiche l’état actuel de tasks.json
# → Vérifier que la tâche experiment est marquée done
# → Ensuite seulement exécuter /omp:write
Q5 : La synchronisation rsync échoue pour les expériences distantes avec un message « permission denied »
Cause : les permissions de la clé SSH ne sont pas correctes, ou le répertoire distant n’existe pas.
Étapes de vérification :
# 1. Vérifier les permissions de la clé SSH locale
chmod 600 ~/.ssh/id_rsa
# 2. Tester la connexion SSH (sans mot de passe)
ssh -i ~/.ssh/id_rsa [email protected] "echo ok"
# 3. S’assurer que le répertoire distant existe
ssh [email protected] "mkdir -p /home/researcher/omp-experiments"
# 4. Vérifier que le chemin remote_workspace dans compute-config.json est correct
Q6 : Après délégation à Codex, Conductor attend indéfiniment le signal CODEX_DONE
Cause : Codex n’a pas correctement écrit dans agent_handoff.md à la fin de son exécution.
Solution :
- Vérifiez que le terminal d’exécution de Codex se termine correctement
- Ajoutez manuellement une ligne à la fin de
.pipeline/memory/agent_handoff.md:
CODEX_DONE
result: [Remplir avec le résultat de sortie de Codex]
- Puis reprenez le workflow actuel dans Claude Code
Lectures complémentaires et directions avancées
1. Extension de compétences personnalisées
Oh My Paper permet d’ajouter des compétences personnalisées dans le répertoire local skills/ du projet. Créez un format comme suit :
---
name: my-custom-skill
description: Procédure d’analyse personnalisée pour un domaine de recherche spécifique
stage: survey # optionnel : survey | ideation | experiment | write | review
---
# Titre de la compétence
## Étapes d’exécution
1. Lire les fichiers de contexte ...
2. Exécuter la tâche spécifique ...
Après enregistrement, lorsque vous lancez des commandes comme /omp:survey, Claude recommandera automatiquement les compétences personnalisées pertinentes.
2. Vers une collaboration multi-Agents plus avancée
Si vous faites avancer plusieurs directions de recherche en parallèle, vous pouvez exécuter /omp:setup séparément dans différents sous-répertoires : chaque sous-projet aura son propre .pipeline/ et sa propre équipe d’Agents. Le rôle Conductor se charge de l’aperçu global et de la coordination entre sous-projets.
3. Workflow de collaboration avec Overleaf
En utilisant la compétence inno-rclone-to-overleaf pour synchroniser la version locale de votre article vers Overleaf, vous pouvez inviter un directeur de thèse à ajouter directement des commentaires sur Overleaf. Une fois les modifications terminées, synchronisez-les de retour vers le local. Le processus ne nécessite aucun upload/téléchargement manuel.
4. Intégrer d’autres backends LLM
Oh My Paper dépend à lui seul de Claude Code, mais à l’étape d’expérimentation, vous pouvez configurer différents LLM pour comparer et évaluer. Dans le répertoire experiment/, créez un fichier de configuration du modèle :
# experiment/model_configs.py
llm_configs = {
"claude-sonnet": {"provider": "anthropic", "model": "claude-3-5-sonnet"},
"gpt-4o": {"provider": "openai", "model": "gpt-4o"},
"gemini-pro": {"provider": "google", "model": "gemini-1.5-pro"},
}
Ensuite, référencez ces configurations dans votre code d’expérimentation pour faire des comparaisons transverses.
5. Suivre les toutes dernières actualités de recherche
Utilisez la compétence research-news pour analyser régulièrement les dernières soumissions d’ArXiv, filtrer les nouveaux travaux pertinents pour votre direction de recherche et mettre à jour automatiquement literature_bank.md. En complément, vous pouvez utiliser une tâche cron pour mettre à jour automatiquement la base bibliographique une fois par semaine.