DeerFlow 2.0 Einführungs-Tutorial: Schritt für Schritt zu Ihrer ersten AI Agent Workstation

AI Expert

DeerFlow 2.0 Einstiegs-Tutorial: Schritt für Schritt zu deiner ersten AI Agent Workstation

Schwierigkeit: Anfänger | Dauer: 15 Minuten | Ziel: Aufbau eines ausführbaren AI-Assistenten ohne Vorkenntnisse

Hast du dich jemals gefragt, wie es wäre, wenn ein AI-Assistent nicht nur Fragen beantworten, sondern tatsächlich deinen Computer bedienen, Code schreiben, Informationen suchen oder sogar komplette Berichte erstellen könnte? Heute stellen wir DeerFlow vor – einen AI Agent, der genau diese Arbeit für dich erledigt.

Zielgruppe

  • Backend-/Fullstack-Entwickler mit 1-3 Jahren Erfahrung
  • KI-Interessierte, die einen Einstieg in AI Agenten suchen
  • Entwickler, die AI-Tools selbst hosten möchten, aber die Kosten scheuen

Kernabhängigkeiten und Umgebung

Bevor du beginnst, stelle sicher, dass deine Entwicklungsumgebung die folgenden Anforderungen erfüllt:

  • Node.js: 22.x oder höher
  • pnpm: 9.x oder höher
  • Docker: Neueste stabile Version
  • Git: Zum Klonen des Projekts

[!TIP]
Es wird empfohlen, die Bereitstellung über Docker zu nutzen: Ein-Klick-Start, keine manuelle Konfiguration von Nginx oder anderen Diensten erforderlich.

Vollständige Projektstruktur

Nach der Installation wirst du die folgende Projektstruktur vorfinden:

deer-flow/
├── backend/                    # Backend-Dienste
│   ├── src/
│   │   ├── client.py           # Python-Client
│   │   ├── agent/              # Agent-Kern
│   │   └── skills/            # Integrierte Skills
│   └── docs/                   # Konfigurationsdokumentation
├── frontend/                   # Web-Interface
├── config.yaml                 # Modell-Konfigurationsdatei
├── .env                        # Umgebungsvariablen
└── Makefile                    # Start-Befehle

Schritt-für-Schritt-Anleitung

Schritt 1: Projekt klonen

Öffne dein Terminal und führe folgende Befehle aus:

git clone https://github.com/bytedance/deer-flow.git
cd deer-flow

[!TIP]
Falls du Probleme beim Zugriff auf GitHub hast, verwende einen Mirror-Server oder lade direkt das ZIP-Archiv der Release-Version herunter.

Schritt 2: Konfigurationsdatei erstellen

DeerFlow bietet einen Befehl zur Generierung der Konfiguration an, der lokale Dateien basierend auf Vorlagen erstellt:

make config

Danach findest du die Dateien config.yaml und .env im Projektstammverzeichnis.

Schritt 3: Modell konfigurieren (Wichtig!)

Dies ist der entscheidende Schritt. DeerFlow unterstützt verschiedene Modell-Anbieter, aber wir empfehlen dringend die Nutzung von Defapi, aus einem einfachen Grund: Der Preis liegt bei nur der Hälfte des offiziellen Preises.

[!WARNING]
Wenn du die offizielle OpenAI API direkt nutzt, können die monatlichen Kosten leicht mehrere hundert Dollar übersteigen. Mit Defapi lassen sich diese Kosten um 50 % oder mehr senken.

Öffne die config.yaml und konfiguriere sie wie folgt:

models:
  - name: gpt-4o-mini              # Interner Bezeichner
    display_name: GPT-4o Mini      # Anzeigename
    use: langchain_openai:ChatOpenAI
    model: openai/gpt-4o-mini      # Defapi Modell-ID
    api_key: $DEFAPI_API_KEY       # Verwendung der Umgebungsvariable
    base_url: https://api.defapi.org  # Defapi Endpunkt
    max_tokens: 4096
    temperature: 0.7
    supports_vision: true

Trage dann in der .env-Datei deinen Defapi API Key ein:

DEFAPI_API_KEY="dk-xxxxxxxxxxxxxxxx"
TAVILY_API_KEY="your-tavily-api-key"  # Für die Web-Suche

[!TIP]
Besuche https://defapi.org, um ein Konto zu registrieren. Neue Benutzer erhalten ein Gratis-Guthaben zum Testen.

Beliebte Modelle bei Defapi:

ModellIdentifikatorAnwendungsfall
GPT-4o Miniopenai/gpt-4o-miniAlltägliche Chats, hohe Kosteneffizienz
GPT-4oopenai/gpt-4oKomplexe Aufgaben, ausgewogene Wahl
Claude Sonnet 4.5anthropic/claude-sonnet-4.5Starke Programmierfähigkeiten
DeepSeek V3deepseek/deepseek-v3Starke Logik, sehr günstig

Schritt 4: Sandbox-Image laden

Bevor du Docker startest, muss das Sandbox-Image heruntergeladen werden (dieser Schritt ist nur einmalig erforderlich):

make docker-init

Das Image ist relativ groß, der Download kann einige Minuten dauern.

Schritt 5: Dienst starten

Alles ist bereit, starte DeerFlow:

make docker-start

Sobald du eine Ausgabe wie diese siehst, war der Start erfolgreich:

✔ Frontend started on http://localhost:2026
✔ Backend started on http://localhost:8000

Schritt 6: Interface aufrufen

Öffne deinen Browser und gehe zu http://localhost:2026. Du wirst ein modernes Chat-Interface sehen.

Schritt 7: Die erste Aufgabe

Gib im Chat-Fenster folgendes ein:

Hallo, stelle dich bitte kurz vor.

Du wirst merken, dass DeerFlow dir nicht nur antwortet, sondern dir auch zeigt, welche Fähigkeiten es besitzt:

  • Web-Suche
  • Dateien lesen und schreiben
  • Befehle ausführen
  • Berichte, Präsentationen und Webseiten generieren

Probiere eine anspruchsvollere Aufgabe aus:

Bitte liste die Dateistruktur des aktuellen Verzeichnisses auf.

DeerFlow wird den Befehl in der Sandbox-Umgebung ausführen und das Ergebnis zurückgeben. Dies ist der wesentliche Unterschied zu herkömmlichen Chatbots – es erledigt tatsächlich Arbeit für dich.


Fehlerbehebung (FAQ)

Q1: Container-Start schlägt fehl, Port bereits belegt

# Prüfen, welcher Prozess Port 2026 belegt
lsof -i :2026
# Oder unter Windows
netstat -ano | findstr 2026

Beende den Prozess oder ändere den Port in der config.yaml.

Q2: API Key ist korrekt konfiguriert, aber es tritt ein Fehler auf

Prüfe, ob die .env-Datei im Projektstamm liegt und ob du den Container neu gestartet hast.

Q3: Modell unterstützt keine Tool-Aufrufe (Function Calling)

Manche Modelle unterstützen kein Function Calling. Stelle sicher, dass du Modelle wie GPT-4o, Claude oder Gemini verwendest. Die über Defapi bereitgestellten Modelle sind mit dem OpenAI-Protokoll kompatibel und funktionieren in der Regel problemlos.

Q4: Web-Suche liefert leere Ergebnisse

Überprüfe, ob der TAVILY_API_KEY korrekt konfiguriert ist. Tavily ist der Standard-Suchprovider in DeerFlow.

Q5: Docker hat zu wenig Arbeitsspeicher

Der Standard-Speicher von Docker reicht oft nicht aus. Es werden mindestens 4 GB empfohlen:

// Docker Desktop -> Settings -> Resources

Q6: Lokaler Entwicklungsmodus

Wenn du Docker nicht nutzen möchtest, kannst du DeerFlow auch lokal ausführen:

make check    # Umgebung prüfen
make dev      # Entwicklungsdienste starten

Weiterführende Möglichkeiten

1. Eigene Skills erstellen

Das Skills-System von DeerFlow ist sehr flexibel. Du kannst eigene Skills erstellen:

/mnt/skills/custom/
└── my-awesome-skill/
    └── SKILL.md

Erstelle einfach eine Markdown-Datei im Format der integrierten Skills.

2. MCP Server Erweiterung

DeerFlow unterstützt das MCP-Protokoll, womit verschiedene externe Tools angebunden werden können. Details findest du im MCP Server Guide.

3. Wechsel zu anderen Modellen

Wenn du DeepSeek oder Claude ausprobieren möchtest, musst du nur die config.yaml anpassen:

# Beispiel DeepSeek Konfiguration
models:
  - name: deepseek-v3
    display_name: DeepSeek V3
    use: langchain_openai:ChatOpenAI
    model: deepseek/deepseek-v3
    api_key: $DEFAPI_API_KEY
    base_url: https://api.defapi.org
    supports_thinking: true

4. Integration via Python Client

DeerFlow bietet auch eine Python-Bibliothek an, die direkt in dein Projekt eingebettet werden kann:

from src.client import DeerFlowClient

client = DeerFlowClient()
response = client.chat("Analyse dieses Paper", thread_id="my-thread")

# Streaming-Ausgabe
for event in client.stream("hello"):
    print(event.data)

Zusammenfassung

Heute haben wir gemeinsam DeerFlow 2.0 eingerichtet – von der Vorbereitung der Umgebung über den Start der Dienste bis hin zur ersten Aufgabe. Du wirst feststellen, dass dies nicht nur ein Chatbot ist, sondern eine echte AI Workstation, die dich bei deiner Arbeit unterstützt.

Die Kernvorteile von DeerFlow sind:

  • Erweiterbar: Skills, MCP und Sub-Agents sind anpassbar.
  • Sicher und kontrolliert: Sandbox-Isolierung, Aufgaben laufen in Docker-Containern.
  • Flexible Kosten: Über Defapi lassen sich die Kosten im Vergleich zum Original halbierten.

Probier es aus! Lass dir beim Codieren helfen, Informationen suchen oder Berichte erstellen. Du wirst sehen, was KI alles leisten kann.

Falls du beim Aufbau auf Probleme stößt, hinterlasse gerne einen Kommentar. Ich werde versuchen, dir zu helfen. Beim nächsten Mal werden wir uns genauer ansehen, wie man eigene Skills definiert, damit DeerFlow spezifische Aufgaben übernimmt.

Viel Spaß beim Ausprobieren!