DeerFlow 2.0 Einführungs-Tutorial: Schritt für Schritt zu Ihrer ersten AI Agent Workstation
DeerFlow 2.0 Einstiegs-Tutorial: Schritt für Schritt zu deiner ersten AI Agent Workstation
Schwierigkeit: Anfänger | Dauer: 15 Minuten | Ziel: Aufbau eines ausführbaren AI-Assistenten ohne Vorkenntnisse
Hast du dich jemals gefragt, wie es wäre, wenn ein AI-Assistent nicht nur Fragen beantworten, sondern tatsächlich deinen Computer bedienen, Code schreiben, Informationen suchen oder sogar komplette Berichte erstellen könnte? Heute stellen wir DeerFlow vor – einen AI Agent, der genau diese Arbeit für dich erledigt.
Zielgruppe
- Backend-/Fullstack-Entwickler mit 1-3 Jahren Erfahrung
- KI-Interessierte, die einen Einstieg in AI Agenten suchen
- Entwickler, die AI-Tools selbst hosten möchten, aber die Kosten scheuen
Kernabhängigkeiten und Umgebung
Bevor du beginnst, stelle sicher, dass deine Entwicklungsumgebung die folgenden Anforderungen erfüllt:
- Node.js: 22.x oder höher
- pnpm: 9.x oder höher
- Docker: Neueste stabile Version
- Git: Zum Klonen des Projekts
[!TIP]
Es wird empfohlen, die Bereitstellung über Docker zu nutzen: Ein-Klick-Start, keine manuelle Konfiguration von Nginx oder anderen Diensten erforderlich.
Vollständige Projektstruktur
Nach der Installation wirst du die folgende Projektstruktur vorfinden:
deer-flow/
├── backend/ # Backend-Dienste
│ ├── src/
│ │ ├── client.py # Python-Client
│ │ ├── agent/ # Agent-Kern
│ │ └── skills/ # Integrierte Skills
│ └── docs/ # Konfigurationsdokumentation
├── frontend/ # Web-Interface
├── config.yaml # Modell-Konfigurationsdatei
├── .env # Umgebungsvariablen
└── Makefile # Start-Befehle
Schritt-für-Schritt-Anleitung
Schritt 1: Projekt klonen
Öffne dein Terminal und führe folgende Befehle aus:
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
[!TIP]
Falls du Probleme beim Zugriff auf GitHub hast, verwende einen Mirror-Server oder lade direkt das ZIP-Archiv der Release-Version herunter.
Schritt 2: Konfigurationsdatei erstellen
DeerFlow bietet einen Befehl zur Generierung der Konfiguration an, der lokale Dateien basierend auf Vorlagen erstellt:
make config
Danach findest du die Dateien config.yaml und .env im Projektstammverzeichnis.
Schritt 3: Modell konfigurieren (Wichtig!)
Dies ist der entscheidende Schritt. DeerFlow unterstützt verschiedene Modell-Anbieter, aber wir empfehlen dringend die Nutzung von Defapi, aus einem einfachen Grund: Der Preis liegt bei nur der Hälfte des offiziellen Preises.
[!WARNING]
Wenn du die offizielle OpenAI API direkt nutzt, können die monatlichen Kosten leicht mehrere hundert Dollar übersteigen. Mit Defapi lassen sich diese Kosten um 50 % oder mehr senken.
Öffne die config.yaml und konfiguriere sie wie folgt:
models:
- name: gpt-4o-mini # Interner Bezeichner
display_name: GPT-4o Mini # Anzeigename
use: langchain_openai:ChatOpenAI
model: openai/gpt-4o-mini # Defapi Modell-ID
api_key: $DEFAPI_API_KEY # Verwendung der Umgebungsvariable
base_url: https://api.defapi.org # Defapi Endpunkt
max_tokens: 4096
temperature: 0.7
supports_vision: true
Trage dann in der .env-Datei deinen Defapi API Key ein:
DEFAPI_API_KEY="dk-xxxxxxxxxxxxxxxx"
TAVILY_API_KEY="your-tavily-api-key" # Für die Web-Suche
[!TIP]
Besuche https://defapi.org, um ein Konto zu registrieren. Neue Benutzer erhalten ein Gratis-Guthaben zum Testen.
Beliebte Modelle bei Defapi:
| Modell | Identifikator | Anwendungsfall |
|---|---|---|
| GPT-4o Mini | openai/gpt-4o-mini | Alltägliche Chats, hohe Kosteneffizienz |
| GPT-4o | openai/gpt-4o | Komplexe Aufgaben, ausgewogene Wahl |
| Claude Sonnet 4.5 | anthropic/claude-sonnet-4.5 | Starke Programmierfähigkeiten |
| DeepSeek V3 | deepseek/deepseek-v3 | Starke Logik, sehr günstig |
Schritt 4: Sandbox-Image laden
Bevor du Docker startest, muss das Sandbox-Image heruntergeladen werden (dieser Schritt ist nur einmalig erforderlich):
make docker-init
Das Image ist relativ groß, der Download kann einige Minuten dauern.
Schritt 5: Dienst starten
Alles ist bereit, starte DeerFlow:
make docker-start
Sobald du eine Ausgabe wie diese siehst, war der Start erfolgreich:
✔ Frontend started on http://localhost:2026
✔ Backend started on http://localhost:8000
Schritt 6: Interface aufrufen
Öffne deinen Browser und gehe zu http://localhost:2026. Du wirst ein modernes Chat-Interface sehen.
Schritt 7: Die erste Aufgabe
Gib im Chat-Fenster folgendes ein:
Hallo, stelle dich bitte kurz vor.
Du wirst merken, dass DeerFlow dir nicht nur antwortet, sondern dir auch zeigt, welche Fähigkeiten es besitzt:
- Web-Suche
- Dateien lesen und schreiben
- Befehle ausführen
- Berichte, Präsentationen und Webseiten generieren
Probiere eine anspruchsvollere Aufgabe aus:
Bitte liste die Dateistruktur des aktuellen Verzeichnisses auf.
DeerFlow wird den Befehl in der Sandbox-Umgebung ausführen und das Ergebnis zurückgeben. Dies ist der wesentliche Unterschied zu herkömmlichen Chatbots – es erledigt tatsächlich Arbeit für dich.
Fehlerbehebung (FAQ)
Q1: Container-Start schlägt fehl, Port bereits belegt
# Prüfen, welcher Prozess Port 2026 belegt
lsof -i :2026
# Oder unter Windows
netstat -ano | findstr 2026
Beende den Prozess oder ändere den Port in der config.yaml.
Q2: API Key ist korrekt konfiguriert, aber es tritt ein Fehler auf
Prüfe, ob die .env-Datei im Projektstamm liegt und ob du den Container neu gestartet hast.
Q3: Modell unterstützt keine Tool-Aufrufe (Function Calling)
Manche Modelle unterstützen kein Function Calling. Stelle sicher, dass du Modelle wie GPT-4o, Claude oder Gemini verwendest. Die über Defapi bereitgestellten Modelle sind mit dem OpenAI-Protokoll kompatibel und funktionieren in der Regel problemlos.
Q4: Web-Suche liefert leere Ergebnisse
Überprüfe, ob der TAVILY_API_KEY korrekt konfiguriert ist. Tavily ist der Standard-Suchprovider in DeerFlow.
Q5: Docker hat zu wenig Arbeitsspeicher
Der Standard-Speicher von Docker reicht oft nicht aus. Es werden mindestens 4 GB empfohlen:
// Docker Desktop -> Settings -> Resources
Q6: Lokaler Entwicklungsmodus
Wenn du Docker nicht nutzen möchtest, kannst du DeerFlow auch lokal ausführen:
make check # Umgebung prüfen
make dev # Entwicklungsdienste starten
Weiterführende Möglichkeiten
1. Eigene Skills erstellen
Das Skills-System von DeerFlow ist sehr flexibel. Du kannst eigene Skills erstellen:
/mnt/skills/custom/
└── my-awesome-skill/
└── SKILL.md
Erstelle einfach eine Markdown-Datei im Format der integrierten Skills.
2. MCP Server Erweiterung
DeerFlow unterstützt das MCP-Protokoll, womit verschiedene externe Tools angebunden werden können. Details findest du im MCP Server Guide.
3. Wechsel zu anderen Modellen
Wenn du DeepSeek oder Claude ausprobieren möchtest, musst du nur die config.yaml anpassen:
# Beispiel DeepSeek Konfiguration
models:
- name: deepseek-v3
display_name: DeepSeek V3
use: langchain_openai:ChatOpenAI
model: deepseek/deepseek-v3
api_key: $DEFAPI_API_KEY
base_url: https://api.defapi.org
supports_thinking: true
4. Integration via Python Client
DeerFlow bietet auch eine Python-Bibliothek an, die direkt in dein Projekt eingebettet werden kann:
from src.client import DeerFlowClient
client = DeerFlowClient()
response = client.chat("Analyse dieses Paper", thread_id="my-thread")
# Streaming-Ausgabe
for event in client.stream("hello"):
print(event.data)
Zusammenfassung
Heute haben wir gemeinsam DeerFlow 2.0 eingerichtet – von der Vorbereitung der Umgebung über den Start der Dienste bis hin zur ersten Aufgabe. Du wirst feststellen, dass dies nicht nur ein Chatbot ist, sondern eine echte AI Workstation, die dich bei deiner Arbeit unterstützt.
Die Kernvorteile von DeerFlow sind:
- Erweiterbar: Skills, MCP und Sub-Agents sind anpassbar.
- Sicher und kontrolliert: Sandbox-Isolierung, Aufgaben laufen in Docker-Containern.
- Flexible Kosten: Über Defapi lassen sich die Kosten im Vergleich zum Original halbierten.
Probier es aus! Lass dir beim Codieren helfen, Informationen suchen oder Berichte erstellen. Du wirst sehen, was KI alles leisten kann.
Falls du beim Aufbau auf Probleme stößt, hinterlasse gerne einen Kommentar. Ich werde versuchen, dir zu helfen. Beim nächsten Mal werden wir uns genauer ansehen, wie man eigene Skills definiert, damit DeerFlow spezifische Aufgaben übernimmt.
Viel Spaß beim Ausprobieren!