Tutoriel d'installation d'OpenFang
Niveau : Débutant | Durée : 15 minutes | Gain : Maßtriser le déploiement d'OpenFang et la configuration des modÚles
Avant-propos
Si vous recherchez un framework d'AI Agent léger et puissant, OpenFang mérite votre attention. Il s'agit d'un systÚme d'exploitation pour Agents (Agent Operating System) open-source écrit en Rust. L'ensemble du systÚme ne pÚse qu'environ 32 Mo aprÚs compilation, tout en supportant nativement plus de 20 fournisseurs de LLM majeurs, dont Anthropic Claude, Google Gemini, OpenAI GPT, DeepSeek, Groq, etc.
Contrairement aux frameworks traditionnels, OpenFang n'est pas un simple wrapper de Chatbot, mais un véritable systÚme d'Agents autonomes capables de travailler pour vous : il peut s'exécuter selon un calendrier défini, vous aider à construire des graphes de connaissances, surveiller des cibles, générer des prospects, gérer les réseaux sociaux et rapporter automatiquement les résultats sur votre Dashboard.
Aujourd'hui, nous allons l'installer ensemble.
Lecteurs cibles
- Développeurs ayant 1 à 5 ans d'expérience
- Profils techniques intéressés par les AI Agents
- Passionnés de technologie souhaitant déployer rapidement des capacités d'IA locales
Dépendances et environnement
Avant de commencer, assurez-vous que votre machine remplit les conditions suivantes :
- SystĂšme d'exploitation : Linux, macOS, Windows (WSL2 ou PowerShell)
- Rust : 1.75+ (recommandé d'utiliser rustup)
- Mémoire : Au moins 4 Go de RAM
- Disque : Au moins 500 Mo d'espace libre
Installer Rust (si non installé)
# Linux/macOS
curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh
# Windows (via PowerShell)
irm https://sh.rustup.rs | iex
Une fois l'installation terminée, exécutez rustc --version pour confirmer la version.
Structure du projet
openfang/
âââ agents/ # RĂ©pertoire des templates d'Agents
â âââ hello-world/
â âââ coder/
â âââ researcher/
â âââ ...
âââ crates/ # Crates Rust (14 au total)
â âââ openfang-cli/ # CLI en ligne de commande
â âââ openfang-runtime/ # CĆur du runtime
â âââ openfang-api/ # API REST
â âââ ...
âââ docs/ # Documentation officielle
âââ sdk/ # SDK multi-langages
â âââ python/
â âââ javascript/
âââ config.toml.example # Exemple de configuration
Installation rapide
Option 1 : Installation officielle en une ligne (recommandé)
Linux/macOS :
curl -fsSL https://openfang.sh/install | sh
Windows PowerShell :
irm https://openfang.sh/install.ps1 | iex
Une fois l'installation terminée, vous verrez le message suivant :
â
OpenFang installed successfully!
Run 'openfang init' to get started.
Option 2 : Compilation manuelle
Si vous souhaitez construire Ă partir de la source ou si vous ĂȘtes dans un environnement non supportĂ© par le script :
# Cloner le dépÎt
git clone https://github.com/RightNow-AI/openfang.git
cd openfang
# Compiler la version release
cargo build --release
# Ou compiler uniquement le CLI
cargo build --release -p openfang-cli
AprĂšs compilation, le fichier binaire se trouve dans target/release/openfang (ou target/release/openfang.exe).
Configuration initiale
Créer le fichier de configuration
Exécutez la commande d'initialisation :
openfang init
Cela créera un dossier de configuration dans votre répertoire personnel :
~/.openfang/
âââ config.toml # Fichier de configuration principal
Structure du fichier de configuration
Ouvrez ~/.openfang/config.toml, la configuration de base ressemble Ă ceci :
# Configuration du service API
host = "127.0.0.1"
port = 4200
# Clé API (optionnel, recommandé en production)
api_key = ""
# Configuration du modÚle par défaut
[default_model]
provider = "groq"
model = "llama-3.3-70b-versatile"
# Configuration par défaut des Agents
[agents.defaults]
[!TIP]
Tous les champs du fichier de configuration sont optionnels ; les valeurs par défaut seront utilisées si des champs manquent.
Configurer les clés API
OpenFang supporte la configuration des clés API via des variables d'environnement. Nous recommandons de tester d'abord avec Groq (quota gratuit) ou Defapi (moitié prix) :
# Option 1 : Groq (gratuit, avec limites de débit)
export GROQ_API_KEY="gsk_votre_cle_Groq"
# Option 2 : Defapi (moitié prix, recommandé)
export DEFAPI_API_KEY="votre_cle_Defapi"
[!WARNING]
N'écrivez pas vos clés API directement dans le fichier de configuration ; utilisez des variables d'environnement pour y faire référence.
Démarrage du service
Lancer OpenFang
openfang start
Vous verrez une sortie similaire Ă :
đ Starting OpenFang daemon...
đĄ Server listening on http://127.0.0.1:4200
đ Dashboard: http://127.0.0.1:4200
â
OpenFang is ready!
Vérifier le service
# Test de santé (Health check)
curl http://127.0.0.1:4200/api/health
# Voir les modĂšles disponibles
curl http://127.0.0.1:4200/api/models
# Voir l'état des fournisseurs
curl http://127.0.0.1:4200/api/providers
Accéder au Dashboard
Ouvrez votre navigateur et accédez à http://127.0.0.1:4200 pour voir le Dashboard Web d'OpenFang.
Votre premier Agent
Création via un template intégré
OpenFang propose plusieurs modÚles d'Agents intégrés dans le dossier agents/ :
# Lister les templates disponibles
openfang template list
Templates courants :
- hello-world : L'agent de discussion le plus simple
- coder : Assistant à l'écriture de code
- researcher : Assistant de recherche
- assistant : Assistant polyvalent
Créer l'Agent
# Création via le template hello-world
openfang agent create hello-world my-first-agent
Test d'envoi de message
# Envoyer un message via le CLI
openfang agent message my-first-agent "Hello, say hi in 3 words"
Ou via l'API REST :
curl -X POST http://127.0.0.1:4200/api/agents/{agent-id}/message \
-H "Content-Type: application/json" \
-d '{"message": "Hello, say hi in 3 words"}'
Si vous recevez une réponse normale, votre Agent est opérationnel !
Pratique : Configuration des modĂšles
Configurer Groq (Tier gratuit)
Groq offre un tier gratuit extrĂȘmement rapide, idĂ©al pour le dĂ©veloppement et les tests :
# ~/.openfang/config.toml
[default_model]
provider = "groq"
model = "llama-3.3-70b-versatile"
Variable d'environnement :
export GROQ_API_KEY="gsk_votre_cle"
[!TIP]
Le tier gratuit de Groq a des limites de débit, adapté pour le dev/test. Pour la production, utilisez d'autres fournisseurs.
Configurer Defapi (Recommandé, moitié prix)
Si vous souhaitez utiliser des modÚles de haute qualité à moindre coût, Defapi est un excellent choix. Le prix est de seulement 50% du tarif officiel :
- Gemini 2.5 Pro : Officiel $1.25/M â Defapi seulement $0.625/M
- Claude Sonnet 4 : Officiel $3.00/M â Defapi seulement $1.50/M
# ~/.openfang/config.toml
# Ajouter un fournisseur personnalisé
[[providers]]
name = "defapi"
base_url = "https://api.defapi.org/v1"
api_key_env = "DEFAPI_API_KEY"
# Définir le modÚle par défaut
[default_model]
provider = "defapi"
model = "claude-sonnet-4-20250514"
Variable d'environnement :
export DEFAPI_API_KEY="votre_cle_Defapi"
[!TIP]
Defapi supporte plusieurs protocoles : v1/chat/completions, v1/messages, v1beta/models/*, parfaitement compatible avec OpenFang.
Configurer Anthropic Claude
[default_model]
provider = "anthropic"
model = "claude-sonnet-4-20250514"
export ANTHROPIC_API_KEY="sk-ant-votre_cle"
Configurer Google Gemini
[default_model]
provider = "gemini"
model = "gemini-2.5-flash"
# GEMINI_API_KEY ou GOOGLE_API_KEY fonctionne
export GEMINI_API_KEY="AIza_votre_cle"
Configurer OpenAI
[default_model]
provider = "openai"
model = "gpt-4o-mini"
export OPENAI_API_KEY="sk-votre_cle"
Dépannage (FAQ)
Q1 : La clé API ne semble pas fonctionner
Ătapes de vĂ©rification :
- Vérifiez que la variable d'environnement est correctement exportée :
echo $GROQ_API_KEY - Redémarrez le service OpenFang :
openfang restart - Vérifiez l'état du fournisseur :
curl http://127.0.0.1:4200/api/providers
Q2 : Le modÚle est affiché comme indisponible
Causes possibles :
- Clé API non configurée ou format incorrect
- Le modÚle n'est pas dans la liste supportée par le fournisseur
- ProblÚme de connexion réseau
Solution :
# Voir la liste détaillée des modÚles
curl http://127.0.0.1:4200/api/models | jq
# Tester la connexion d'un fournisseur spécifique
curl -X POST http://127.0.0.1:4200/api/providers/groq/test
Q3 : Le port 4200 est déjà utilisé
# Identifier le processus occupant le port
lsof -i :4200 # Linux/macOS
netstat -ano | findstr :4200 # Windows
# Modifier le port dans la configuration
# ~/.openfang/config.toml
port = 4201
Q4 : Erreur de compilation
Assurez-vous que la version de Rust est Ă jour :
rustup update
rustc --version # Doit ĂȘtre >= 1.75
Si vous rencontrez des problÚmes de dépendances, essayez :
cargo clean
cargo build --release
Q5 : Commande introuvable sur Windows
Assurez-vous que le binaire OpenFang est dans votre PATH :
# Ajouter temporairement au PATH (Permanent via les paramÚtres systÚme recommandé)
$env:PATH += ";$env:USERPROFILE\.openfang\bin"
# Ou utiliser le chemin complet
~\.openfang\bin\openfang.exe start
Q6 : Comment consulter les logs
# Voir les logs en temps réel
openfang logs
# Ou consulter le fichier log
cat ~/.openfang/logs/openfang.log
Directions avancées
Hands : 7 packs de capacités intégrés
La plus grande force d'OpenFang réside dans ses 7 "Hands" (capacités) intégrés :
| Hand | Fonctionnalités |
|---|---|
| Clip | Téléchargement YouTube, montage, doublage, publication auto sur réseaux sociaux |
| Lead | Génération de prospects quotidiens, prospection, scoring, déduplication |
| Collector | Collecte OSINT, détection de changements, construction de graphes de connaissances |
| Predictor | Moteur de prédiction, intervalles de confiance, suivi de précision |
| Researcher | Recherche approfondie, validation multi-sources, rapports au format APA |
| Tweets automatiques, réponses interactives, planning de publication | |
| Browser | Automatisation Web, remplissage de formulaires, workflows multi-étapes |
# Activer le Hand Researcher
openfang hand activate researcher
# Vérifier le statut
openfang hand status researcher
# Mettre en pause
openfang hand pause researcher
Développement d'Agents personnalisés
Créer un Agent personnalisé :
# my-agent.toml
name = "my-agent"
version = "0.1.0"
description = "Mon agent personnalisé"
author = "votre_nom"
[model]
provider = "groq"
model = "llama-3.3-70b-versatile"
[capabilities]
tools = ["file_read", "web_fetch", "bash"]
memory_read = ["*"]
memory_write = ["self.*"]
# Déployer l'Agent personnalisé
openfang agent deploy my-agent.toml
Intégration MCP
OpenFang supporte le protocole MCP (Model Context Protocol), permettant de se connecter Ă divers services externes :
[[mcp_servers]]
name = "filesystem"
command = "npx"
args = ["-y", "@modelcontextprotocol/server-filesystem", "/chemin/vers/dossier"]
Conclusion
Aujourd'hui, nous avons terminé l'installation complÚte d'OpenFang :
- â InstallĂ© OpenFang (via script officiel ou compilation)
- â InitialisĂ© la configuration (config.toml + variables d'environnement)
- â LancĂ© et vĂ©rifiĂ© le service
- â Créé et testĂ© le premier Agent
- â ConfigurĂ© plusieurs fournisseurs de LLM (Groq, Defapi, Claude, Gemini)
- â RĂ©solu les problĂšmes courants
Vous disposez maintenant d'une plateforme complÚte pour faire tourner des AI Agents ! Prochaines étapes suggérées :
- Activez un "Hand" pour expérimenter l'automatisation.
- Créez un Agent personnalisé avec vos propres outils.
- Explorez l'intégration MCP pour connecter plus de services externes.
Amusez-vous bien !
[!TIP]
Pour un environnement de production, il est conseillé de choisir Defapi (moitié prix) ou de configurer plusieurs fournisseurs pour assurer le failover et la stabilité du service.