Guide de démarrage DeerFlow 2.0 : Créez votre première station de travail d'Agent IA pas à pas
Tutoriel de démarrage DeerFlow 2.0 : Construisez pas à pas votre premier poste de travail AI Agent
Difficulté : Débutant | Durée : 15 minutes | Gain : Construire un assistant IA exécutable à partir de zéro
Vous êtes-vous déjà demandé ce que ce serait si un assistant IA ne se contentait pas de répondre à des questions, mais pouvait réellement manipuler votre ordinateur, écrire du code, rechercher des informations ou même générer des rapports complets ? Aujourd'hui, nous vous présentons DeerFlow, un AI Agent capable de travailler concrètement pour vous.
Public cible
- Développeurs backend/fullstack (1 à 3 ans d'expérience)
- Passionnés par les AI Agents ne sachant pas par où commencer
- Personnes souhaitant auto-héberger des outils d'IA tout en maîtrisant les coûts
Dépendances et environnement
Avant de commencer, assurez-vous que votre environnement de développement remplit les conditions suivantes :
- Node.js : 22.x ou version supérieure
- pnpm : 9.x ou version supérieure
- Docker : Dernière version stable
- Git : Pour cloner le projet
[!TIP]
Il est recommandé d'utiliser le déploiement via Docker : démarrage en un clic, sans configuration manuelle de services comme Nginx.
Structure complète du projet
Une fois l'installation terminée, vous verrez la structure de projet suivante :
deer-flow/
├── backend/ # Service backend
│ ├── src/
│ │ ├── client.py # Client Python
│ │ ├── agent/ # Cœur de l'Agent
│ │ └── skills/ # Compétences intégrées
│ └── docs/ # Documentation de configuration
├── frontend/ # Interface Web
├── config.yaml # Fichier de configuration des modèles
├── .env # Variables d'environnement
└── Makefile # Commandes de démarrage
Étapes pas à pas
Étape 1 : Cloner le projet
Ouvrez votre terminal et exécutez les commandes suivantes :
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
[!TIP]
Si vous rencontrez des difficultés pour accéder à GitHub, vous pouvez utiliser un miroir ou télécharger directement l'archive de la version Release.
Étape 2 : Générer les fichiers de configuration
DeerFlow propose une commande de génération de configuration qui crée des fichiers locaux basés sur des modèles :
make config
Après exécution, vous trouverez les fichiers config.yaml et .env à la racine du projet.
Étape 3 : Configurer les modèles (Important !)
C'est l'étape la plus critique. DeerFlow supporte plusieurs fournisseurs de modèles, mais nous recommandons vivement l'utilisation de Defapi. La raison est simple : le prix est réduit de moitié par rapport aux tarifs officiels.
[!WARNING]
Si vous utilisez directement l'API officielle d'OpenAI, les frais mensuels peuvent facilement dépasser plusieurs centaines de dollars. L'utilisation de Defapi permet de réduire ce coût de moitié ou plus.
Ouvrez config.yaml et configurez comme suit :
models:
- name: gpt-4o-mini # Identifiant interne
display_name: GPT-4o Mini # Nom d'affichage
use: langchain_openai:ChatOpenAI
model: openai/gpt-4o-mini # Identifiant du modèle Defapi
api_key: $DEFAPI_API_KEY # Utilise une variable d'environnement
base_url: https://api.defapi.org # Point de terminaison Defapi
max_tokens: 4096
temperature: 0.7
supports_vision: true
Ensuite, renseignez votre clé API Defapi dans le fichier .env :
DEFAPI_API_KEY="dk-xxxxxxxxxxxxxxxx"
TAVILY_API_KEY="your-tavily-api-key" # Utilisé pour la recherche Web
[!TIP]
Visitez https://defapi.org pour créer un compte ; les nouveaux utilisateurs bénéficient d'un crédit gratuit pour essayer.
Modèles populaires supportés par Defapi :
| Modèle | Identifiant | Cas d'utilisation |
|---|---|---|
| GPT-4o Mini | openai/gpt-4o-mini | Conversations quotidiennes, excellent rapport qualité/prix |
| GPT-4o | openai/gpt-4o | Tâches complexes, le choix de l'équilibre |
| Claude Sonnet 4.5 | anthropic/claude-sonnet-4.5 | Capacités de programmation avancées |
| DeepSeek V3 | deepseek/deepseek-v3 | Capacités de raisonnement fortes, prix bas |
Étape 4 : Télécharger l'image du bac à sable (Sandbox)
Avant de lancer Docker, vous devez télécharger l'image du bac à sable (cette étape n'est à effectuer qu'une seule fois) :
make docker-init
L'image est assez volumineuse, l'opération peut prendre quelques minutes.
Étape 5 : Démarrer le service
Tout est prêt, lancez DeerFlow :
make docker-start
Si vous voyez une sortie similaire à celle-ci, le démarrage est réussi :
✔ Frontend started on http://localhost:2026
✔ Backend started on http://localhost:8000
Étape 6 : Accéder à l'interface
Ouvrez votre navigateur et accédez à http://localhost:2026. Vous verrez une interface de chat moderne.
Étape 7 : Votre première mission
Tapez dans la zone de chat :
Bonjour, présentez-vous s'il vous plaît.
Vous remarquerez que DeerFlow ne se contente pas de répondre, il vous indique également ses capacités :
- Rechercher sur le Web
- Lire et écrire des fichiers
- Exécuter des commandes
- Générer des rapports, des présentations, des pages Web
Essayez ensuite une tâche plus complexe :
Affichez la structure des fichiers du répertoire actuel.
DeerFlow exécutera la commande dans l'environnement du bac à sable et renverra le résultat. C'est la différence fondamentale avec un chatbot classique — il peut réellement travailler pour vous.
Dépannage (FAQ)
Q1 : Échec du démarrage du conteneur, port déjà utilisé
# Vérifier quel processus utilise le port 2026
lsof -i :2026
# Ou (sous Windows)
netstat -ano | findstr 2026
Arrêtez le processus concerné ou modifiez le port dans config.yaml.
Q2 : Clé API correcte mais erreur persistante
Vérifiez que le fichier .env est bien à la racine du projet et que vous avez relancé le conteneur ou exécuté source .env.
Q3 : Le modèle ne supporte pas l'appel d'outils (Tool Calling)
Certains modèles ne supportent pas le "function calling". Assurez-vous d'utiliser un modèle comme GPT-4o, Claude ou Gemini. Les modèles fournis par Defapi sont compatibles avec le protocole OpenAI et fonctionnent généralement sans problème.
Q4 : La recherche Web ne renvoie aucun résultat
Vérifiez que TAVILY_API_KEY est correctement configurée. Tavily est le fournisseur de recherche par défaut de DeerFlow.
Q5 : Mémoire Docker insuffisante
La mémoire par défaut de Docker peut être insuffisante. Il est conseillé d'allouer au moins 4 Go :
// Docker Desktop -> Settings -> Resources
Q6 : Mode de développement local
Si vous ne souhaitez pas utiliser Docker, vous pouvez l'exécuter localement :
make check # Vérifier l'environnement
make dev # Lancer le service de développement
Directions avancées
1. Personnalisation des Skills
Le système de Skills de DeerFlow est très flexible. Vous pouvez créer votre propre Skill :
/mnt/skills/custom/
└── my-awesome-skill/
└── SKILL.md
Il suffit de rédiger un fichier Markdown en suivant le format des Skills intégrés.
2. Extension via serveur MCP
DeerFlow supporte le protocole MCP, permettant de connecter divers outils externes. Voir la documentation officielle MCP Server Guide.
3. Changer de modèle
Si vous voulez essayer DeepSeek ou Claude, modifiez simplement config.yaml :
# Exemple de configuration DeepSeek
models:
- name: deepseek-v3
display_name: DeepSeek V3
use: langchain_openai:ChatOpenAI
model: deepseek/deepseek-v3
api_key: $DEFAPI_API_KEY
base_url: https://api.defapi.org
supports_thinking: true
4. Utilisation du client Python intégré
DeerFlow fournit également une bibliothèque Python pour une intégration directe dans vos projets :
from src.client import DeerFlowClient
client = DeerFlowClient()
response = client.chat("Analyse cet article", thread_id="my-thread")
# Sortie en streaming
for event in client.stream("hello"):
print(event.data)
Conclusion
Aujourd'hui, nous avons configuré ensemble DeerFlow 2.0, de la préparation de l'environnement au lancement du service, jusqu'à la première tâche. Vous constaterez qu'il ne s'agit pas d'un simple chatbot, mais d'un véritable poste de travail IA capable de vous assister concrètement.
Les avantages clés de DeerFlow sont :
- Extensible : Support des Skills, MCP et Sub-Agents personnalisés.
- Sécurisé et contrôlé : Isolation par bac à sable, les tâches s'exécutent dans des conteneurs Docker.
- Coûts flexibles : Grâce à Defapi, les coûts sont divisés par deux par rapport aux solutions officielles.
Allez-y, essayez ! Laissez-le coder pour vous, chercher des infos ou générer des rapports. Vous découvrirez une nouvelle façon d'utiliser l'IA.
Si vous rencontrez des problèmes lors de l'installation, n'hésitez pas à laisser un commentaire, je ferai de mon mieux pour vous répondre. La prochaine fois, nous verrons comment personnaliser les Skills pour réaliser des tâches spécifiques.
Amusez-vous bien !