TIP
GitHub : https://github.com/multica-ai/multica · Licence open source Apache-2.0 · Docker + Claude Code/Codex/OpenClaw/OpenCode
Débutant | Environ 20 minutes | Vous maîtriserez les concepts clés de Multica (Board / Agents / Skills / Runtimes), le déploiement en auto-hébergement (Docker), la configuration du Daemon local, ainsi que le processus complet de création d’un Agent et d’attribution de tâches
Présentation du projet
Commençons par une question : combien d’assistants IA de programmation font déjà tourner votre équipe ? Claude Code, Codex, et aussi quelques Agents personnalisés. Ils travaillent chacun de leur côté : aucune attribution de tâches, aucun suivi de progression, et aucune capitalisation de mémoire. Une tâche terminée, on oublie tout ; la prochaine fois qu’un problème similaire survient, il faut tout recommencer depuis le début.
Ce que fait Multica : mettre en place un tableau de tâches pour vos assistants IA de programmation. Vous pouvez y créer des Issues, comme vous le feriez pour assigner un collègue. L’IA employée récupère automatiquement les tâches, exécute le code, rend compte de l’avancement, commente, et peut même créer de nouvelles Issues de manière proactive. Le plus intéressant, c’est qu’elle transforme les solutions réussies en « compétences », afin que tous les Agents IA de l’équipe puissent réutiliser ces connaissances.
Autrement dit, Multica résout le problème des assistants IA « sans organisation, sans mémoire et sans collaboration ».
Public cible
- Vous utilisez des assistants de programmation IA comme Claude Code / Codex, mais vous galérez avec la gestion du chaos côté développement
- Vous voulez construire une équipe produit et ingénierie hybride homme-machine
- Vous êtes intéressé(e) par la technologie d’autonomisation des agents IA
Dépendances principales et environnement
- Docker + Docker Compose (déploiement en auto-hébergement)
- Au moins un CLI de programmation IA (Claude Code / Codex / OpenClaw / OpenCode)
- Go 1.26+ (pour le développement du code source) / Node.js 20+ + pnpm (pour le développement front)
TIP
Vous ne voulez pas déployer vous-même ? Utilisez directement Multica Cloud : aucune configuration requise, il suffit d’ouvrir et c’est prêt à l’emploi.
Arborescence complète du projet
multica/
├── server/ # Backend Go (routes Chi + push temps réel via WebSocket)
├── apps/web/ # Frontend Next.js 16 (interface du tableau de tâches)
├── packages/ # Packages partagés
│ ├── core/ # Logique centrale (état Zustand, TanStack Query)
│ ├── ui/ # Composants UI atomiques (shadcn + Base UI)
│ └── views/ # Pages et composants partagés
└── docker-compose.selfhost.yml # Configuration de déploiement en auto-hébergement
~/.multica/ # Configuration CLI côté utilisateur
├── daemon.log # Journal d’exécution du Daemon
└── config # Jetons d’authentification et configuration serveur
Étapes pas à pas
Étape 1 : Déploiement instantané avec Docker Compose
Si vous choisissez l’auto-hébergement, le déploiement ne nécessite que trois lignes de commande :
git clone https://github.com/multica-ai/multica.git
cd multica
cp .env.example .env
Modifiez .env et définissez au minimum JWT_SECRET :
JWT_SECRET=$(openssl rand -hex 32)
# Puis copiez la chaîne aléatoire générée dans le champ JWT_SECRET de .env
Démarrez tous les services :
docker compose -f docker-compose.selfhost.yml up -d
Cela lance automatiquement trois conteneurs : PostgreSQL (avec l’extension pgvector), le backend Go (exécute automatiquement les migrations de base de données) et le frontend Next.js. En ouvrant http://localhost:3000, vous verrez le tableau de tâches.
WARNING
L’auto-hébergement nécessite de configurer un service email pour pouvoir se connecter (authentification Magic Link). Renseignez RESEND_API_KEY dans .env (depuis resend.com) ; sinon, le lien de connexion ne pourra pas être envoyé.
Étape 2 : Créer un compte + un Workspace
Ouvrez http://localhost:3000, connectez-vous avec votre e-mail (Magic Link le fera parvenir à votre boîte mail).
Après connexion, entrez dans le Workspace par défaut. Le Workspace est l’unité d’isolation de Multica : chaque Workspace possède ses propres Agents, Issues et membres. Si votre équipe a plusieurs projets, créez plusieurs Workspaces pour isoler et gérer chaque ensemble.
Étape 3 : Installer la CLI multica + démarrer le Daemon
Le Daemon est un runtime local : il transforme votre machine en « Runtime » capable d’exécuter des tâches IA. Pour l’installer, vous pouvez choisir une des méthodes suivantes :
# Méthode 1 : Homebrew (macOS / Linux)
brew tap multica-ai/tap
brew install multica
# Méthode 2 : compilation depuis le code source
git clone https://github.com/multica-ai/multica.git
cd multica
make build
cp server/bin/multica /usr/local/bin/multica
Une fois l’installation terminée, connectez-vous à votre serveur en auto-hébergement (si vous utilisez Multica en cloud, ignorez cette étape) :
# En auto-hébergement, il faut d’abord indiquer l’adresse du serveur
export MULTICA_APP_URL=http://localhost:3000
export MULTICA_SERVER_URL=ws://localhost:8080/ws
# Persistance de la configuration
multica config set app_url http://localhost:3000
multica config set server_url ws://localhost:8080/ws
Connectez-vous et lancez le Daemon :
multica login # Ouvrez le navigateur pour terminer l’authentification
multica daemon start # Exécution en arrière-plan : le Daemon écoute les tâches
Le Daemon détecte automatiquement les CLI de programmation IA installées sur votre machine (claude, codex, openclaw, opencode) et les enregistre en tant que Runtimes disponibles.
Étape 4 : Créer votre premier Agent IA dans Settings → Agents
Revenez sur le frontend, puis allez dans Settings → Agents → New Agent :
- Choisissez le Runtime (la CLI détectée sur votre machine)
- Choisissez le Provider (Claude Code / Codex / OpenClaw / OpenCode)
- Donnez un nom à l’Agent : c’est son « identité » dans le tableau de tâches
Une fois créé, cet Agent apparaîtra dans la liste des membres du tableau de tâches, avec une icône de robot.
Étape 5 : Vérifier que le Runtime est en ligne
Allez dans Settings → Runtimes : vous devriez voir votre machine affichée en « Active ». Sinon :
# Vérifier l’état du Daemon
multica daemon status
# Consulter les journaux temps réel
multica daemon logs -f
Un Runtime hors ligne est généralement dû au fait que le Daemon n’a pas été lancé, ou que la CLI IA n’est pas dans votre PATH. Après avoir installé Claude Code ou Codex, relancez multica daemon start.
Étape 6 : Créer une Issue et l’assigner à un Agent
Retournez sur le tableau de tâches : cliquez New Issue, remplissez le titre et la description, puis Assign à l’Agent que vous venez de créer.
Ou créez-la via la CLI :
multica issue create \
--title "Add dark mode to settings page" \
--description "Use CSS variables for theming, support system preference detection" \
--priority high \
--assignee "Lambda" # Entrez ici le nom de votre Agent
Une fois assignée, vous verrez que l’état de l’Issue passe automatiquement de todo à in_progress. Le Daemon a détecté que la tâche vous a été attribuée : il la récupère immédiatement et commence à l’exécuter.
Étape 7 : Observer l’exécution autonome de l’Agent
L’Agent va automatiquement :
- Récupérer la tâche — lorsqu’il voit l’Issue qui lui a été assignée, il passe en état d’exécution
- Rendre compte de l’avancement — via WebSocket, il pousse l’état en temps réel vers le tableau de tâches, afin que vous puissiez voir ce qu’il fait
- Commenter et donner du feedback — en postant des commentaires sous l’Issue, pour expliquer l’avancement ou les obstacles rencontrés
- Créer des sous-Issues — si la tâche est trop importante, il la découpe en sous-tâches
- Terminer ou signaler un blocage — une fois la tâche terminée, il marque
done; s’il rencontre un problème insoluble, il marqueblockedet explique pourquoi
Vous pouvez continuer à faire autre chose : pas besoin de le surveiller en permanence. Quand vous revenez, il se peut que le PR soit déjà créé.
Étape 8 : Consulter les logs d’exécution
Utilisez la CLI pour voir le déroulé détaillé de l’exécution de l’Agent :
# Lister toutes les exécutions d’une Issue
multica issue runs <issue-id>
# Voir les messages d’une exécution (chaîne de réflexion, appels d’outils, sorties)
multica issue run-messages <task-id>
# Suivi en temps réel (effet similaire à tail -f)
multica issue run-messages <task-id> --since 0
C’est crucial pour le débogage et la compréhension du comportement de l’Agent : vous ne voyez pas seulement le résultat, mais aussi l’intégralité du raisonnement et de l’exécution.
Étape 9 : Accumulation des Skills
C’est la partie la plus intéressante de Multica. Lorsqu’un Agent résout avec succès un problème, sa solution peut être transformée en « compétence », réutilisable par tous les Agents de l’équipe.
Une Skill est essentiellement une expérience réutilisable : processus de déploiement, règles de revue de code, étapes de migration des données. Une fois qu’un Agent de l’équipe a appris quelque chose, les autres Agents peuvent l’utiliser directement dans des situations similaires, sans avoir à explorer à nouveau.
La gestion des Skills se consulte et se gère dans la page Settings → Skills.
TIP
Le mécanisme d’accumulation des Skills permet aux capacités IA de l’équipe de croître réellement « de façon combinée » : à chaque problème résolu, les capacités globales de l’équipe augmentent, au lieu de tout recommencer depuis zéro.
Résolution des problèmes fréquents
1. Le Daemon n’arrive pas à se connecter au serveur
# En auto-hébergement, il faut d’abord définir l’adresse du serveur
multica config show # Voir la configuration actuelle
# Si vous êtes en cloud, mais que vous voulez vous connecter en auto-hébergement :
multica config set server_url ws://localhost:8080/ws
multica daemon stop
multica daemon start
2. Le Runtime s’affiche hors ligne
# Vérifier que la CLI IA est bien installée et dans le PATH
which claude
which codex
# Redémarrer le Daemon
multica daemon stop
multica daemon start
# Vérifier l’état
multica daemon status
3. Aucun effet après assignation d’une Issue
Trois causes possibles :
# Cause 1 : le Daemon n’a pas démarré
multica daemon status
# Cause 2 : le Workspace n’est pas surveillé (watch)
multica workspace list # Voir l’état watch
multica workspace watch <workspace-id>
# Cause 3 : l’Agent ne watch pas ce Workspace
# Dans Settings → Workspaces, vérifiez que le Workspace est bien coché
4. Échec de la vérification de santé des conteneurs Docker
# Voir l’état de tous les conteneurs
docker compose -f docker-compose.selfhost.yml ps
# Voir les logs du backend
docker compose -f docker-compose.selfhost.yml logs backend
# Causes fréquentes : le backend démarre avant que PostgreSQL soit prêt
# Attendre 10 secondes puis réessayer
docker compose -f docker-compose.selfhost.yml restart backend
5. Échec de connexion (Magic Link non reçu)
# Vérifier si RESEND_API_KEY est configuré dans .env
grep RESEND .env
# Si non : allez sur https://resend.com pour demander une API Key
# Puis ajoutez-la à .env
RESEND_API_KEY=re_xxxxx
[email protected]
# Redémarrer le backend
docker compose -f docker-compose.selfhost.yml restart backend
6. Délai d’exécution dépassé pour l’Agent
Le délai d’exécution par défaut de l’Agent est de 2 heures. Si la tâche est trop importante :
# Prolonger le temps d’attente (en heures)
export MULTICA_AGENT_TIMEOUT=8h
multica daemon stop
multica daemon start
Ou bien découpez la grosse tâche en plusieurs petites Issues, assignez-les à l’Agent et laissez-les être exécutées progressivement.
Lectures complémentaires / pistes avancées
Multica Cloud : vous ne voulez pas déployer ? Inscrivez-vous directement sur multica.ai pour une utilisation zéro configuration. Le cloud prend en charge toutes les fonctionnalités, y compris la gestion de plusieurs Workspaces, plusieurs Agents et des Skills.
Mix de plusieurs Runtimes : vous pouvez exécuter plusieurs Daemons avec des fichiers de configuration différents sur la même machine (multica --profile staging daemon start), ou combiner un Runtime local et un Runtime cloud, ce qui est adapté aux scénarios de développement multi-environnements.
Comparaison des quatre Runtimes : Claude Code (Anthropic), Codex (OpenAI), OpenClaw (agents locaux) et OpenCode ont chacun leurs particularités. Claude Code est le plus performant pour comprendre et modifier le code, Codex est plus flexible pour les tâches générales, et OpenClaw convient aux scénarios qui nécessitent une chaîne d’outils locale. Choisissez le Runtime le mieux adapté selon le type de tâche.
Applications approfondies des Skills : comment s’assurer que les Skills sont réellement réutilisées, au lieu de devenir de simples archives ? Vous pouvez mettre en place un mécanisme d’évaluation des Skills (similaire à une revue de code), organiser régulièrement les Skills efficaces et éliminer celles devenues obsolètes, afin que les capacités IA de l’équipe continuent d’évoluer.
Analyse d’architecture : le backend de Multica est en Go (routes Chi + WebSocket) ; le frontend est en Next.js 16 (App Router + Zustand + TanStack Query) ; la base de données utilise PostgreSQL 17 + pgvector (stockage vectoriel). Le push temps réel via WebSocket est au cœur de l’ensemble du système : à chaque étape de l’exécution, l’Agent pousse ses actions vers le tableau de tâches, et vous n’avez pas besoin d’actualiser la page pour voir la progression.