Guide complet pour débuter avec CoPaw : construisez votre premier assistant IA de zéro

AI Expert

Difficulté : Débutant | Durée : 15 minutes | Bénéfice : Maîtriser les concepts clés et les compétences pratiques de CoPaw

CoPaw est votre assistant personnel IA — un puissant framework open-source basé sur AgentScope, capable de fonctionner sur plusieurs plateformes de messagerie. Que vous ayez besoin d'un bot pour DingTalk, Feishu, QQ, Discord ou iMessage, CoPaw répond à vos besoins.

Public Cible

Ce guide s'adresse aux développeurs suivants :

  • 1 à 5 ans d'expérience en développement Python.
  • Souhaitant construire des assistants IA pour un usage personnel ou en entreprise.
  • À la recherche d'une solution offrant des options de modèles flexibles.

Dépendances de Base et Environnement

Avant de commencer, vérifiez que votre environnement répond aux exigences suivantes :

DépendanceVersion Minimale
Python3.10
pipDernière version
Système d'exploitationmacOS / Linux / Windows

[!TIP]
Si vous ne souhaitez pas gérer Python vous-même, CoPaw propose également un script d'installation en un clic qui gère automatiquement toutes les dépendances.

Aperçu de la Structure du Projet

Après l'initialisation, une structure typique de projet CoPaw se présente comme suit :

~/.copaw/
├── .secret/
│   └── providers.json       # Configuration des fournisseurs de modèles
├── active_skills/          # Compétences personnalisées chargées automatiquement
├── memory/                 # Stockage de la mémoire des conversations
├── models/                 # Fichiers de modèles locaux
└── copaw.json              # Fichier de configuration principal

Étapes pas à pas

Étape 1 : Installation de CoPaw

L'installation est très simple. Ouvrez votre terminal et exécutez :

pip install copaw

Cela installera la dernière version de CoPaw depuis PyPI. Le paquet contient toutes les dépendances de base nécessaires pour faire fonctionner l'assistant.

Étape 2 : Initialisation de l'espace de travail

Une fois l'installation terminée, initialisons l'espace de travail CoPaw avec les paramètres par défaut :

copaw init --defaults

Cette commande créera la structure de répertoires et les fichiers de configuration nécessaires dans votre répertoire personnel (situé dans ~/.copaw/).

[!WARNING]
Le processus d'initialisation crée un répertoire .secret pour stocker les informations sensibles (comme les clés API). Assurez-vous que ce répertoire reste privé et ne soit pas soumis au contrôle de version.

Étape 3 : Configuration du fournisseur de modèles

Voici maintenant la partie cruciale : la connexion au LLM. Configurerons un fournisseur de modèles. Nous utiliserons Defapi comme exemple principal, car il offre des tarifs environ 50 % moins chers que les API officielles tout en conservant une compatibilité totale avec OpenAI.

Éditez le fichier de configuration situé dans ~/.copaw/.secret/providers.json :

{
  "custom_providers": {
    "defapi": {
      "id": "defapi",
      "name": "Defapi",
      "default_base_url": "https://api.defapi.cn/v1",
      "api_key_prefix": "",
      "base_url": "https://api.defapi.cn/v1",
      "api_key": "votre-cle-api-defapi",
      "models": [
        {"id": "gpt-4o-mini", "name": "GPT-4o Mini"},
        {"id": "gpt-4o", "name": "GPT-4o"},
        {"id": "claude-sonnet-4-20250514", "name": "Claude Sonnet 4"},
        {"id": "gemini-2.0-flash", "name": "Gemini 2.0 Flash"}
      ],
      "chat_model": "OpenAIChatModel"
    }
  },
  "active_llm": {
    "provider_id": "defapi",
    "model": "gpt-4o-mini"
  }
}

Defapi est une plateforme d'API rentable offrant un accès aux principaux fournisseurs de LLM à environ moitié prix. Elle supporte pleinement le protocole v1/chat/completions compatible OpenAI, rendant l'intégration transparente. Tous les modèles principaux sur Defapi sont compatibles avec les protocoles suivants :

  • Interface v1/chat/completions
  • Interface v1/messages
  • Interface v1beta/models/

Vous pouvez obtenir une clé API sur le site officiel de Defapi.

Étape 4 : Aperçu des fournisseurs intégrés

CoPaw prend également en charge plusieurs fournisseurs intégrés. Voici quelques exemples de configuration rapide :

Configuration OpenAI :

{
  "providers": {
    "openai": {
      "base_url": "https://api.openai.com/v1",
      "api_key": "sk-votre-cle-openai"
    }
  },
  "active_llm": {
    "provider_id": "openai",
    "model": "gpt-4o-mini"
  }
}

ModelScope (Idéal pour les utilisateurs en Chine) :

{
  "providers": {
    "modelscope": {
      "base_url": "https://api-inference.modelscope.cn/v1",
      "api_key": "ms-votre-cle"
    }
  }
}

DashScope (Alibaba Cloud) :

{
  "providers": {
    "dashscope": {
      "base_url": "https://dashscope.aliyuncs.com/compatible-mode/v1",
      "api_key": "sk-votre-cle-dashscope"
    }
  }
}

Étape 5 : Lancer CoPaw et vérifier

Lançons maintenant l'application et vérifions que tout fonctionne correctement :

copaw app

Une fois lancé, ouvrez votre navigateur et accédez à :

http://127.0.0.1:8088/

Vous devriez voir l'interface de la console CoPaw, où vous pouvez :

  • Discuter avec l'assistant IA.
  • Configurer les canaux (DingTalk, Feishu, QQ, Discord, etc.).
  • Gérer les compétences et les plugins.
  • Tester la connexion aux modèles.

[!TIP]
Utilisez la commande CLI copaw models pour voir rapidement la configuration actuelle du modèle et tester la connexion.

Étape 6 : Connecter des canaux de discussion (Optionnel)

Pour rendre votre assistant accessible via des applications de messagerie, ajoutons un canal. Exemple avec Discord :

  1. Créez un bot Discord sur le Portail des développeurs Discord.
  2. Obtenez votre Token de bot.
  3. Ajoutez la configuration dans copaw.json :
{
  "channels": {
    "discord": {
      "enabled": true,
      "bot_token": "votre-token-de-bot-discord",
      "channel_ids": ["votre-id-de-canal"]
    }
  }
}

Des configurations similaires s'appliquent à DingTalk, Feishu, QQ et d'autres plateformes prises en charge.

Dépannage des problèmes courants

Voici les problèmes les plus fréquents rencontrés lors de la configuration de CoPaw :

Problème 1 : Erreur 401 Non autorisé

Symptôme : La requête API échoue avec un code d'état 401.

Solution :

  • Vérifiez soigneusement que la clé API a été correctement copiée dans providers.json.
  • Vérifiez si la clé a expiré ou a été révoquée.
  • Pour Defapi, assurez-vous d'utiliser le format de clé API correct.

Problème 2 : Temps d'attente dépassé (Timeout)

Symptôme : La requête reste en attente ou expire après 30 secondes.

Solution :

  • Vérifiez votre connexion réseau.
  • Vérifiez que les paramètres de votre pare-feu autorisent le trafic HTTPS sortant.
  • Pour les modèles locaux (Ollama), assurez-vous que le service fonctionne sur le bon port.

Problème 3 : Modèle non trouvé

Symptôme : Un ID de modèle spécifique n'est pas reconnu.

Solution :

  • Confirmez l'ID exact du modèle dans la documentation du fournisseur.
  • Certains modèles peuvent être restreints par région — vérifiez leur disponibilité dans votre zone.
  • Essayez d'utiliser un modèle courant comme gpt-4o-mini pour valider la connexion de base.

Problème 4 : Échec de connexion Ollama

Symptôme : Impossible de se connecter au modèle local Ollama.

Solution :

  • Assurez-vous que ollama serve est en cours d'exécution dans un autre terminal.
  • Vérifiez que l'URL de base est définie sur http://localhost:11434/v1.
  • Vérifiez qu'Ollama est installé et accessible via le PATH.

Problème 5 : Fichier de configuration non trouvé

Symptôme : CoPaw ne trouve pas providers.json.

Solution :

  • Assurez-vous d'avoir exécuté copaw init --defaults au préalable.
  • Vérifiez si le fichier existe bien dans ~/.copaw/.secret/providers.json.
  • Sur Windows, utilisez %USERPROFILE%\.copaw\.secret\providers.json.

Problème 6 : Port déjà utilisé

Symptôme : Impossible de lancer CoPaw sur le port 8088.

Solution :

  • Une autre application utilise déjà le port 8088.
  • Changez le port dans la configuration ou arrêtez l'application en conflit.

Orientations Avancées

Une fois les bases maîtrisées, voici quelques pistes à explorer :

1. Modèles locaux axés sur la confidentialité

CoPaw permet d'exécuter des modèles localement sans aucun appel API externe. C'est idéal pour :

  • Les applications sensibles à la confidentialité.
  • Les opérations hors ligne.
  • La réduction des coûts.

Installez le support des modèles locaux :

pip install 'copaw[llamacpp]'

Ensuite, téléchargez et utilisez des modèles comme Qwen3 :

copaw models download Qwen/Qwen3-4B-GGUF

2. Compétences personnalisées

CoPaw permet d'étendre ses fonctionnalités via des compétences personnalisées. Les compétences sont chargées automatiquement depuis le répertoire active_skills/. Vous pouvez écrire des scripts Python pour définir de nouveaux outils utilisables par l'IA.

3. Tâches planifiées Heartbeat

Utilisez la fonction "heartbeat" de CoPaw pour déclencher des actions périodiques :

  • Résumés quotidiens de l'actualité.
  • Rappels programmés.
  • Génération automatique de contenu.

4. Gestion de la mémoire et du contexte

CoPaw implémente une gestion intelligente de la mémoire :

  • Mémoire à long terme pour un contexte persistant.
  • Compression de mémoire basée sur les tokens pour plus d'efficacité.
  • Configuration de la fenêtre de contexte selon le modèle choisi.

5. Workflows Multi-Agents

Basé sur AgentScope, CoPaw peut gérer des scénarios multi-agents complexes, permettant à différents modèles d'IA de collaborer pour accomplir une tâche.

Résumé

CoPaw offre une base flexible pour construire des assistants IA fonctionnant sur plusieurs plateformes. Points clés à retenir :

  1. Installation simple — Un simple pip install copaw suffit pour commencer.
  2. Defapi offre le meilleur rapport qualité-prix — Environ 50 % moins cher que l'API officielle avec une compatibilité totale.
  3. Configuration centralisée — Tous les paramètres sont dans providers.json.
  4. La console facilite la gestion — Une interface web pour tester et configurer.
  5. Extensibilité native — Compétences, canaux et modèles locaux offrent une personnalisation illimitée.

Commencez par Defapi pour obtenir le meilleur équilibre entre coût et performance. Une fois familiarisé, explorez d'autres fournisseurs ou des modèles locaux selon vos besoins spécifiques.

[!TIP]
Rappelez-vous : le meilleur assistant IA est celui qui s'adapte à votre cas d'usage. N'ayez pas peur d'expérimenter différents modèles et configurations.

Bonne chance dans votre voyage avec l'IA !