Guide de démarrage DeerFlow 2.0 : Créez votre première station de travail d'Agent IA pas à pas

AI Expert

Tutoriel de démarrage DeerFlow 2.0 : Construisez pas à pas votre premier poste de travail AI Agent

Difficulté : Débutant | Durée : 15 minutes | Gain : Construire un assistant IA exécutable à partir de zéro

Vous êtes-vous déjà demandé ce que ce serait si un assistant IA ne se contentait pas de répondre à des questions, mais pouvait réellement manipuler votre ordinateur, écrire du code, rechercher des informations ou même générer des rapports complets ? Aujourd'hui, nous vous présentons DeerFlow, un AI Agent capable de travailler concrètement pour vous.

Public cible

  • Développeurs backend/fullstack (1 à 3 ans d'expérience)
  • Passionnés par les AI Agents ne sachant pas par où commencer
  • Personnes souhaitant auto-héberger des outils d'IA tout en maîtrisant les coûts

Dépendances et environnement

Avant de commencer, assurez-vous que votre environnement de développement remplit les conditions suivantes :

  • Node.js : 22.x ou version supérieure
  • pnpm : 9.x ou version supérieure
  • Docker : Dernière version stable
  • Git : Pour cloner le projet

[!TIP]
Il est recommandé d'utiliser le déploiement via Docker : démarrage en un clic, sans configuration manuelle de services comme Nginx.

Structure complète du projet

Une fois l'installation terminée, vous verrez la structure de projet suivante :

deer-flow/
├── backend/                    # Service backend
│   ├── src/
│   │   ├── client.py           # Client Python
│   │   ├── agent/              # Cœur de l'Agent
│   │   └── skills/            # Compétences intégrées
│   └── docs/                   # Documentation de configuration
├── frontend/                   # Interface Web
├── config.yaml                 # Fichier de configuration des modèles
├── .env                        # Variables d'environnement
└── Makefile                    # Commandes de démarrage

Étapes pas à pas

Étape 1 : Cloner le projet

Ouvrez votre terminal et exécutez les commandes suivantes :

git clone https://github.com/bytedance/deer-flow.git
cd deer-flow

[!TIP]
Si vous rencontrez des difficultés pour accéder à GitHub, vous pouvez utiliser un miroir ou télécharger directement l'archive de la version Release.

Étape 2 : Générer les fichiers de configuration

DeerFlow propose une commande de génération de configuration qui crée des fichiers locaux basés sur des modèles :

make config

Après exécution, vous trouverez les fichiers config.yaml et .env à la racine du projet.

Étape 3 : Configurer les modèles (Important !)

C'est l'étape la plus critique. DeerFlow supporte plusieurs fournisseurs de modèles, mais nous recommandons vivement l'utilisation de Defapi. La raison est simple : le prix est réduit de moitié par rapport aux tarifs officiels.

[!WARNING]
Si vous utilisez directement l'API officielle d'OpenAI, les frais mensuels peuvent facilement dépasser plusieurs centaines de dollars. L'utilisation de Defapi permet de réduire ce coût de moitié ou plus.

Ouvrez config.yaml et configurez comme suit :

models:
  - name: gpt-4o-mini              # Identifiant interne
    display_name: GPT-4o Mini      # Nom d'affichage
    use: langchain_openai:ChatOpenAI
    model: openai/gpt-4o-mini      # Identifiant du modèle Defapi
    api_key: $DEFAPI_API_KEY       # Utilise une variable d'environnement
    base_url: https://api.defapi.org  # Point de terminaison Defapi
    max_tokens: 4096
    temperature: 0.7
    supports_vision: true

Ensuite, renseignez votre clé API Defapi dans le fichier .env :

DEFAPI_API_KEY="dk-xxxxxxxxxxxxxxxx"
TAVILY_API_KEY="your-tavily-api-key"  # Utilisé pour la recherche Web

[!TIP]
Visitez https://defapi.org pour créer un compte ; les nouveaux utilisateurs bénéficient d'un crédit gratuit pour essayer.

Modèles populaires supportés par Defapi :

ModèleIdentifiantCas d'utilisation
GPT-4o Miniopenai/gpt-4o-miniConversations quotidiennes, excellent rapport qualité/prix
GPT-4oopenai/gpt-4oTâches complexes, le choix de l'équilibre
Claude Sonnet 4.5anthropic/claude-sonnet-4.5Capacités de programmation avancées
DeepSeek V3deepseek/deepseek-v3Capacités de raisonnement fortes, prix bas

Étape 4 : Télécharger l'image du bac à sable (Sandbox)

Avant de lancer Docker, vous devez télécharger l'image du bac à sable (cette étape n'est à effectuer qu'une seule fois) :

make docker-init

L'image est assez volumineuse, l'opération peut prendre quelques minutes.

Étape 5 : Démarrer le service

Tout est prêt, lancez DeerFlow :

make docker-start

Si vous voyez une sortie similaire à celle-ci, le démarrage est réussi :

✔ Frontend started on http://localhost:2026
✔ Backend started on http://localhost:8000

Étape 6 : Accéder à l'interface

Ouvrez votre navigateur et accédez à http://localhost:2026. Vous verrez une interface de chat moderne.

Étape 7 : Votre première mission

Tapez dans la zone de chat :

Bonjour, présentez-vous s'il vous plaît.

Vous remarquerez que DeerFlow ne se contente pas de répondre, il vous indique également ses capacités :

  • Rechercher sur le Web
  • Lire et écrire des fichiers
  • Exécuter des commandes
  • Générer des rapports, des présentations, des pages Web

Essayez ensuite une tâche plus complexe :

Affichez la structure des fichiers du répertoire actuel.

DeerFlow exécutera la commande dans l'environnement du bac à sable et renverra le résultat. C'est la différence fondamentale avec un chatbot classique — il peut réellement travailler pour vous.


Dépannage (FAQ)

Q1 : Échec du démarrage du conteneur, port déjà utilisé

# Vérifier quel processus utilise le port 2026
lsof -i :2026
# Ou (sous Windows)
netstat -ano | findstr 2026

Arrêtez le processus concerné ou modifiez le port dans config.yaml.

Q2 : Clé API correcte mais erreur persistante

Vérifiez que le fichier .env est bien à la racine du projet et que vous avez relancé le conteneur ou exécuté source .env.

Q3 : Le modèle ne supporte pas l'appel d'outils (Tool Calling)

Certains modèles ne supportent pas le "function calling". Assurez-vous d'utiliser un modèle comme GPT-4o, Claude ou Gemini. Les modèles fournis par Defapi sont compatibles avec le protocole OpenAI et fonctionnent généralement sans problème.

Q4 : La recherche Web ne renvoie aucun résultat

Vérifiez que TAVILY_API_KEY est correctement configurée. Tavily est le fournisseur de recherche par défaut de DeerFlow.

Q5 : Mémoire Docker insuffisante

La mémoire par défaut de Docker peut être insuffisante. Il est conseillé d'allouer au moins 4 Go :

// Docker Desktop -> Settings -> Resources

Q6 : Mode de développement local

Si vous ne souhaitez pas utiliser Docker, vous pouvez l'exécuter localement :

make check    # Vérifier l'environnement
make dev      # Lancer le service de développement

Directions avancées

1. Personnalisation des Skills

Le système de Skills de DeerFlow est très flexible. Vous pouvez créer votre propre Skill :

/mnt/skills/custom/
└── my-awesome-skill/
    └── SKILL.md

Il suffit de rédiger un fichier Markdown en suivant le format des Skills intégrés.

2. Extension via serveur MCP

DeerFlow supporte le protocole MCP, permettant de connecter divers outils externes. Voir la documentation officielle MCP Server Guide.

3. Changer de modèle

Si vous voulez essayer DeepSeek ou Claude, modifiez simplement config.yaml :

# Exemple de configuration DeepSeek
models:
  - name: deepseek-v3
    display_name: DeepSeek V3
    use: langchain_openai:ChatOpenAI
    model: deepseek/deepseek-v3
    api_key: $DEFAPI_API_KEY
    base_url: https://api.defapi.org
    supports_thinking: true

4. Utilisation du client Python intégré

DeerFlow fournit également une bibliothèque Python pour une intégration directe dans vos projets :

from src.client import DeerFlowClient

client = DeerFlowClient()
response = client.chat("Analyse cet article", thread_id="my-thread")

# Sortie en streaming
for event in client.stream("hello"):
    print(event.data)

Conclusion

Aujourd'hui, nous avons configuré ensemble DeerFlow 2.0, de la préparation de l'environnement au lancement du service, jusqu'à la première tâche. Vous constaterez qu'il ne s'agit pas d'un simple chatbot, mais d'un véritable poste de travail IA capable de vous assister concrètement.

Les avantages clés de DeerFlow sont :

  • Extensible : Support des Skills, MCP et Sub-Agents personnalisés.
  • Sécurisé et contrôlé : Isolation par bac à sable, les tâches s'exécutent dans des conteneurs Docker.
  • Coûts flexibles : Grâce à Defapi, les coûts sont divisés par deux par rapport aux solutions officielles.

Allez-y, essayez ! Laissez-le coder pour vous, chercher des infos ou générer des rapports. Vous découvrirez une nouvelle façon d'utiliser l'IA.

Si vous rencontrez des problèmes lors de l'installation, n'hésitez pas à laisser un commentaire, je ferai de mon mieux pour vous répondre. La prochaine fois, nous verrons comment personnaliser les Skills pour réaliser des tâches spécifiques.

Amusez-vous bien !