Tutoriel d'installation d'OpenFang

‱AI Expert

Niveau : Débutant | Durée : 15 minutes | Gain : Maßtriser le déploiement d'OpenFang et la configuration des modÚles

Avant-propos

Si vous recherchez un framework d'AI Agent léger et puissant, OpenFang mérite votre attention. Il s'agit d'un systÚme d'exploitation pour Agents (Agent Operating System) open-source écrit en Rust. L'ensemble du systÚme ne pÚse qu'environ 32 Mo aprÚs compilation, tout en supportant nativement plus de 20 fournisseurs de LLM majeurs, dont Anthropic Claude, Google Gemini, OpenAI GPT, DeepSeek, Groq, etc.

Contrairement aux frameworks traditionnels, OpenFang n'est pas un simple wrapper de Chatbot, mais un véritable systÚme d'Agents autonomes capables de travailler pour vous : il peut s'exécuter selon un calendrier défini, vous aider à construire des graphes de connaissances, surveiller des cibles, générer des prospects, gérer les réseaux sociaux et rapporter automatiquement les résultats sur votre Dashboard.

Aujourd'hui, nous allons l'installer ensemble.


Lecteurs cibles

  • DĂ©veloppeurs ayant 1 Ă  5 ans d'expĂ©rience
  • Profils techniques intĂ©ressĂ©s par les AI Agents
  • PassionnĂ©s de technologie souhaitant dĂ©ployer rapidement des capacitĂ©s d'IA locales

Dépendances et environnement

Avant de commencer, assurez-vous que votre machine remplit les conditions suivantes :

  • SystĂšme d'exploitation : Linux, macOS, Windows (WSL2 ou PowerShell)
  • Rust : 1.75+ (recommandĂ© d'utiliser rustup)
  • MĂ©moire : Au moins 4 Go de RAM
  • Disque : Au moins 500 Mo d'espace libre

Installer Rust (si non installé)

# Linux/macOS
curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh

# Windows (via PowerShell)
irm https://sh.rustup.rs | iex

Une fois l'installation terminée, exécutez rustc --version pour confirmer la version.


Structure du projet

openfang/
├── agents/                 # RĂ©pertoire des templates d'Agents
│   ├── hello-world/
│   ├── coder/
│   ├── researcher/
│   └── ...
├── crates/                # Crates Rust (14 au total)
│   ├── openfang-cli/      # CLI en ligne de commande
│   ├── openfang-runtime/  # CƓur du runtime
│   ├── openfang-api/      # API REST
│   └── ...
├── docs/                  # Documentation officielle
├── sdk/                   # SDK multi-langages
│   ├── python/
│   └── javascript/
└── config.toml.example    # Exemple de configuration

Installation rapide

Option 1 : Installation officielle en une ligne (recommandé)

Linux/macOS :

curl -fsSL https://openfang.sh/install | sh

Windows PowerShell :

irm https://openfang.sh/install.ps1 | iex

Une fois l'installation terminée, vous verrez le message suivant :

✅ OpenFang installed successfully!
Run 'openfang init' to get started.

Option 2 : Compilation manuelle

Si vous souhaitez construire Ă  partir de la source ou si vous ĂȘtes dans un environnement non supportĂ© par le script :

# Cloner le dépÎt
git clone https://github.com/RightNow-AI/openfang.git
cd openfang

# Compiler la version release
cargo build --release

# Ou compiler uniquement le CLI
cargo build --release -p openfang-cli

AprĂšs compilation, le fichier binaire se trouve dans target/release/openfang (ou target/release/openfang.exe).


Configuration initiale

Créer le fichier de configuration

Exécutez la commande d'initialisation :

openfang init

Cela créera un dossier de configuration dans votre répertoire personnel :

~/.openfang/
└── config.toml    # Fichier de configuration principal

Structure du fichier de configuration

Ouvrez ~/.openfang/config.toml, la configuration de base ressemble Ă  ceci :

# Configuration du service API
host = "127.0.0.1"
port = 4200

# Clé API (optionnel, recommandé en production)
api_key = ""

# Configuration du modÚle par défaut
[default_model]
provider = "groq"
model = "llama-3.3-70b-versatile"

# Configuration par défaut des Agents
[agents.defaults]

[!TIP]
Tous les champs du fichier de configuration sont optionnels ; les valeurs par défaut seront utilisées si des champs manquent.

Configurer les clés API

OpenFang supporte la configuration des clés API via des variables d'environnement. Nous recommandons de tester d'abord avec Groq (quota gratuit) ou Defapi (moitié prix) :

# Option 1 : Groq (gratuit, avec limites de débit)
export GROQ_API_KEY="gsk_votre_cle_Groq"

# Option 2 : Defapi (moitié prix, recommandé)
export DEFAPI_API_KEY="votre_cle_Defapi"

[!WARNING]
N'écrivez pas vos clés API directement dans le fichier de configuration ; utilisez des variables d'environnement pour y faire référence.


Démarrage du service

Lancer OpenFang

openfang start

Vous verrez une sortie similaire Ă  :

🚀 Starting OpenFang daemon...
📡 Server listening on http://127.0.0.1:4200
🌐 Dashboard: http://127.0.0.1:4200
✅ OpenFang is ready!

Vérifier le service

# Test de santé (Health check)
curl http://127.0.0.1:4200/api/health

# Voir les modĂšles disponibles
curl http://127.0.0.1:4200/api/models

# Voir l'état des fournisseurs
curl http://127.0.0.1:4200/api/providers

Accéder au Dashboard

Ouvrez votre navigateur et accédez à http://127.0.0.1:4200 pour voir le Dashboard Web d'OpenFang.


Votre premier Agent

Création via un template intégré

OpenFang propose plusieurs modÚles d'Agents intégrés dans le dossier agents/ :

# Lister les templates disponibles
openfang template list

Templates courants :

  • hello-world : L'agent de discussion le plus simple
  • coder : Assistant Ă  l'Ă©criture de code
  • researcher : Assistant de recherche
  • assistant : Assistant polyvalent

Créer l'Agent

# Création via le template hello-world
openfang agent create hello-world my-first-agent

Test d'envoi de message

# Envoyer un message via le CLI
openfang agent message my-first-agent "Hello, say hi in 3 words"

Ou via l'API REST :

curl -X POST http://127.0.0.1:4200/api/agents/{agent-id}/message \
  -H "Content-Type: application/json" \
  -d '{"message": "Hello, say hi in 3 words"}'

Si vous recevez une réponse normale, votre Agent est opérationnel !


Pratique : Configuration des modĂšles

Configurer Groq (Tier gratuit)

Groq offre un tier gratuit extrĂȘmement rapide, idĂ©al pour le dĂ©veloppement et les tests :

# ~/.openfang/config.toml
[default_model]
provider = "groq"
model = "llama-3.3-70b-versatile"

Variable d'environnement :

export GROQ_API_KEY="gsk_votre_cle"

[!TIP]
Le tier gratuit de Groq a des limites de débit, adapté pour le dev/test. Pour la production, utilisez d'autres fournisseurs.

Configurer Defapi (Recommandé, moitié prix)

Si vous souhaitez utiliser des modÚles de haute qualité à moindre coût, Defapi est un excellent choix. Le prix est de seulement 50% du tarif officiel :

  • Gemini 2.5 Pro : Officiel $1.25/M → Defapi seulement $0.625/M
  • Claude Sonnet 4 : Officiel $3.00/M → Defapi seulement $1.50/M
# ~/.openfang/config.toml

# Ajouter un fournisseur personnalisé
[[providers]]
name = "defapi"
base_url = "https://api.defapi.org/v1"
api_key_env = "DEFAPI_API_KEY"

# Définir le modÚle par défaut
[default_model]
provider = "defapi"
model = "claude-sonnet-4-20250514"

Variable d'environnement :

export DEFAPI_API_KEY="votre_cle_Defapi"

[!TIP]
Defapi supporte plusieurs protocoles : v1/chat/completions, v1/messages, v1beta/models/*, parfaitement compatible avec OpenFang.

Configurer Anthropic Claude

[default_model]
provider = "anthropic"
model = "claude-sonnet-4-20250514"
export ANTHROPIC_API_KEY="sk-ant-votre_cle"

Configurer Google Gemini

[default_model]
provider = "gemini"
model = "gemini-2.5-flash"
# GEMINI_API_KEY ou GOOGLE_API_KEY fonctionne
export GEMINI_API_KEY="AIza_votre_cle"

Configurer OpenAI

[default_model]
provider = "openai"
model = "gpt-4o-mini"
export OPENAI_API_KEY="sk-votre_cle"

Dépannage (FAQ)

Q1 : La clé API ne semble pas fonctionner

Étapes de vĂ©rification :

  1. Vérifiez que la variable d'environnement est correctement exportée : echo $GROQ_API_KEY
  2. Redémarrez le service OpenFang : openfang restart
  3. Vérifiez l'état du fournisseur : curl http://127.0.0.1:4200/api/providers

Q2 : Le modÚle est affiché comme indisponible

Causes possibles :

  • ClĂ© API non configurĂ©e ou format incorrect
  • Le modĂšle n'est pas dans la liste supportĂ©e par le fournisseur
  • ProblĂšme de connexion rĂ©seau

Solution :

# Voir la liste détaillée des modÚles
curl http://127.0.0.1:4200/api/models | jq

# Tester la connexion d'un fournisseur spécifique
curl -X POST http://127.0.0.1:4200/api/providers/groq/test

Q3 : Le port 4200 est déjà utilisé

# Identifier le processus occupant le port
lsof -i :4200   # Linux/macOS
netstat -ano | findstr :4200  # Windows

# Modifier le port dans la configuration
# ~/.openfang/config.toml
port = 4201

Q4 : Erreur de compilation

Assurez-vous que la version de Rust est Ă  jour :

rustup update
rustc --version  # Doit ĂȘtre >= 1.75

Si vous rencontrez des problÚmes de dépendances, essayez :

cargo clean
cargo build --release

Q5 : Commande introuvable sur Windows

Assurez-vous que le binaire OpenFang est dans votre PATH :

# Ajouter temporairement au PATH (Permanent via les paramÚtres systÚme recommandé)
$env:PATH += ";$env:USERPROFILE\.openfang\bin"

# Ou utiliser le chemin complet
~\.openfang\bin\openfang.exe start

Q6 : Comment consulter les logs

# Voir les logs en temps réel
openfang logs

# Ou consulter le fichier log
cat ~/.openfang/logs/openfang.log

Directions avancées

Hands : 7 packs de capacités intégrés

La plus grande force d'OpenFang réside dans ses 7 "Hands" (capacités) intégrés :

HandFonctionnalités
ClipTéléchargement YouTube, montage, doublage, publication auto sur réseaux sociaux
LeadGénération de prospects quotidiens, prospection, scoring, déduplication
CollectorCollecte OSINT, détection de changements, construction de graphes de connaissances
PredictorMoteur de prédiction, intervalles de confiance, suivi de précision
ResearcherRecherche approfondie, validation multi-sources, rapports au format APA
TwitterTweets automatiques, réponses interactives, planning de publication
BrowserAutomatisation Web, remplissage de formulaires, workflows multi-étapes
# Activer le Hand Researcher
openfang hand activate researcher

# Vérifier le statut
openfang hand status researcher

# Mettre en pause
openfang hand pause researcher

Développement d'Agents personnalisés

Créer un Agent personnalisé :

# my-agent.toml
name = "my-agent"
version = "0.1.0"
description = "Mon agent personnalisé"
author = "votre_nom"

[model]
provider = "groq"
model = "llama-3.3-70b-versatile"

[capabilities]
tools = ["file_read", "web_fetch", "bash"]
memory_read = ["*"]
memory_write = ["self.*"]
# Déployer l'Agent personnalisé
openfang agent deploy my-agent.toml

Intégration MCP

OpenFang supporte le protocole MCP (Model Context Protocol), permettant de se connecter Ă  divers services externes :

[[mcp_servers]]
name = "filesystem"
command = "npx"
args = ["-y", "@modelcontextprotocol/server-filesystem", "/chemin/vers/dossier"]

Conclusion

Aujourd'hui, nous avons terminé l'installation complÚte d'OpenFang :

  • ✅ InstallĂ© OpenFang (via script officiel ou compilation)
  • ✅ InitialisĂ© la configuration (config.toml + variables d'environnement)
  • ✅ LancĂ© et vĂ©rifiĂ© le service
  • ✅ Créé et testĂ© le premier Agent
  • ✅ ConfigurĂ© plusieurs fournisseurs de LLM (Groq, Defapi, Claude, Gemini)
  • ✅ RĂ©solu les problĂšmes courants

Vous disposez maintenant d'une plateforme complÚte pour faire tourner des AI Agents ! Prochaines étapes suggérées :

  1. Activez un "Hand" pour expérimenter l'automatisation.
  2. Créez un Agent personnalisé avec vos propres outils.
  3. Explorez l'intégration MCP pour connecter plus de services externes.

Amusez-vous bien !

[!TIP]
Pour un environnement de production, il est conseillé de choisir Defapi (moitié prix) ou de configurer plusieurs fournisseurs pour assurer le failover et la stabilité du service.


Lectures complémentaires

Tutoriel d'installation d'OpenFang