Aller au contenu
WorkflowPro
IA générative

Intégrer Claude (Anthropic) dans n8n : tutoriel pas à pas 2026

Tutoriel pas à pas pour intégrer Claude (Anthropic) dans n8n : génération de contenu, classification, RAG, tool use. Avec exemples et bonnes pratiques.

EA

Etienne Aubry

Développeur & Expert Automatisation IA

· · 7 min de lecture · 1372 mots
Interface d'intelligence artificielle générative
Interface d'intelligence artificielle générative

Claude (la famille de modèles d’Anthropic) est, fin 2025 et en 2026, le modèle d’IA générative que j’utilise par défaut sur 80 % des automatisations clients. Plus fiable que GPT-4 en français, meilleur sur les tâches longues (200K tokens de contexte), excellent en raisonnement structuré.

Ce tutoriel montre comment intégrer Claude dans n8n pour des cas d’usage réels : classification de leads, génération de contenu, RAG, et tool use (agent).

Pré-requis

Étape 1 — Configurer la credential Anthropic

Dans n8n :

  1. Aller dans Credentials → New credential
  2. Chercher “Anthropic”
  3. Choisir Anthropic API
  4. Coller votre clé sk-ant-api03-...
  5. Sauvegarder

n8n chiffre la clé avec votre N8N_ENCRYPTION_KEY (raison de plus pour bien la sauvegarder hors VPS).

Étape 2 — Premier nœud Anthropic

Créez un nouveau workflow, ajoutez un Manual Trigger puis un nœud Anthropic Chat Model ou directement le nœud Anthropic (selon votre version n8n).

Configuration minimale :

  • Model : claude-opus-4-7 (le plus récent, le plus puissant)
  • Max tokens : 1024 pour démarrer
  • Messages :
    • Role : user
    • Content : Explique en 3 phrases ce qu'est l'API Anthropic

Exécutez. Vous devriez voir la réponse de Claude apparaître dans la sortie du nœud.

Cas d’usage 1 — Classification de leads

C’est le cas qui paie le mieux : trier automatiquement les leads entrants en chaud/tiède/froid pour que vos commerciaux se concentrent sur les vrais prospects.

Workflow

  1. Webhook (déclenché par votre formulaire Typeform/HubSpot)
  2. Anthropic avec le prompt suivant :
Tu es un expert en qualification de leads B2B SaaS.

Voici un lead :
- Nom : {{$json.name}}
- Email : {{$json.email}}
- Entreprise : {{$json.company}}
- Taille équipe : {{$json.size}}
- Besoin exprimé : {{$json.need}}
- Budget : {{$json.budget}}

Classifie ce lead en :
- "chaud" : prêt à acheter sous 30 jours, budget validé, besoin clair
- "tiede" : intéressé mais flou sur le timing ou le budget
- "froid" : curiosité, pas de budget alloué

Réponds STRICTEMENT au format JSON :
{ "classification": "chaud|tiede|froid", "score": 0-100, "raison": "explication courte" }
  1. Code node pour parser le JSON
  2. Switch sur la classification → HubSpot/Slack/Email selon le cas

Important : utilisez le mode JSON output de Claude (paramètre response_format ou prompt explicite avec <output>). Sinon, vous aurez parfois du texte libre qui casse votre workflow.

Cas d’usage 2 — Génération de contenu

Génération d’articles, descriptions produits, emails personnalisés. Voici un exemple pour des emails de prospection personnalisés :

Prompt

Tu es un copywriter B2B spécialisé en prospection.

Contexte :
- Mon offre : {{$json.offre}}
- Prospect : {{$json.prenom}}, {{$json.poste}} chez {{$json.entreprise}}
- Secteur prospect : {{$json.secteur}}
- Information personnalisée trouvée sur LinkedIn : {{$json.info_linkedin}}

Rédige un email de prospection :
- 80 mots maximum
- Tutoyer
- Mentionner l'info LinkedIn dans la 1ère phrase
- 1 question ouverte à la fin
- Pas de "j'espère que vous allez bien"
- Pas de mots vides ("synergie", "solutions", "innovant")

Format de sortie :
SUJET : [sujet de l'email, max 50 chars]
CORPS : [le corps de l'email]

Astuces

  • Tutoyer/vouvoyer : précisez-le explicitement, Claude par défaut vouvoie
  • Anti-pattern : ne demandez pas à Claude des trucs vagues comme “fais quelque chose de bien”. Soyez précis
  • Système prompt : utilisez le paramètre system (séparé des messages) pour fixer la personnalité/style. C’est plus stable que de le mettre dans le user message

Cas d’usage 3 — RAG (Retrieval-Augmented Generation)

Le RAG permet à Claude de répondre sur la base de vos documents (FAQ, doc produit, base de connaissances) plutôt que ses connaissances générales. C’est ce qui transforme un chatbot générique en assistant métier.

Architecture

  1. Indexation (1 fois) : vos documents → chunks → embeddings → stockés dans un vector store (Supabase pgvector, Pinecone, Weaviate)
  2. Requête (temps réel) : question utilisateur → embedding → recherche similarité → top 5 chunks → injectés dans le prompt Claude → réponse

Workflow n8n

Webhook (question)
  → Embedding OpenAI (text-embedding-3-small)
  → Supabase vector search (similarity top 5)
  → Code node (assembler chunks)
  → Anthropic Claude avec prompt :
    "Réponds à la question en t'appuyant UNIQUEMENT sur les sources fournies.
     Si la réponse n'est pas dans les sources, dis : 'Je n'ai pas cette information.'
     
     Sources :
     {{$json.chunks}}
     
     Question : {{$json.question}}"
  → Webhook response

Astuce qualité : ajoutez des citations dans le prompt. Demandez à Claude de référencer la source de chaque info ([Source 1], [Source 2]). Ça force le modèle à se baser réellement sur les chunks et réduit les hallucinations.

Pour un guide complet, voir RAG : le guide complet.

Cas d’usage 4 — Tool use (agent)

C’est le futur. Au lieu de chaîner manuellement des nœuds, vous donnez à Claude un set de tools et il décide quoi appeler.

Exemple : agent de gestion d’agenda

Outils définis :

  • get_calendar(date) : récupère les événements
  • create_event(title, datetime, duration) : crée un événement
  • send_email(to, subject, body) : envoie un email

L’utilisateur dit : “Cale un point avec Marie demain à 14h, et envoie-lui un email de confirmation.”

Claude appelle :

  1. create_event("Point Marie", "2026-05-15T14:00", 30)
  2. send_email("marie@...", "Point demain 14h", "Salut Marie, ...")

Implémentation n8n

n8n a un nœud AI Agent qui orchestre tool use nativement. Vous définissez :

  • Les tools (chaque tool = un sub-workflow ou un nœud HTTP)
  • Le system prompt
  • Le modèle (Claude)

Et n8n gère la boucle “tool call → exécution → re-prompt” automatiquement.

Bonnes pratiques production

1. Gestion d’erreurs

Anthropic peut renvoyer des erreurs : rate limit (429), surcharge (529), tokens dépassés. Wrappez vos nœuds Anthropic dans un Try/Catch avec retry exponentiel :

// Code node "retry-with-backoff"
const maxRetries = 3;
let lastError;
for (let i = 0; i < maxRetries; i++) {
  try {
    return await callClaude(items[0].json.prompt);
  } catch (err) {
    lastError = err;
    if (err.status === 429 || err.status === 529) {
      await new Promise(r => setTimeout(r, Math.pow(2, i) * 1000));
    } else {
      throw err;
    }
  }
}
throw lastError;

2. Surveiller le coût

Claude facture au token (entrée + sortie). À volume, ça monte vite. Loggez chaque appel avec le token count et le coût estimé :

  • Sonnet 4.6 : ~$3/M input, $15/M output
  • Opus 4.7 : ~$15/M input, $75/M output
  • Haiku 4.5 : ~$0.80/M input, $4/M output

Pour 90 % des cas d’usage métier, Haiku 4.5 suffit largement et coûte 18× moins cher qu’Opus.

3. Caching prompt

Anthropic supporte le prompt caching : si votre prompt système fait 8K tokens et est identique sur 1000 appels, vous payez 10× moins cher pour la partie en cache. Activez-le sur les system prompts longs et stables.

4. Limiter les hallucinations

  • Ajoutez <thinking> dans le prompt pour forcer le raisonnement explicite
  • Demandez de citer les sources sur les tâches factuelles
  • Utilisez constrained sampling (réponses dans un set fini) via prompt explicite
  • Ne demandez pas à Claude des chiffres précis qu’il ne peut pas connaître (taux de change, météo) — passez par une API dédiée

Choisir le bon modèle Claude

ModèleCas d’usagePrix
Opus 4.7Tâches complexes : analyse stratégique, code, raisonnement$$$$$
Sonnet 4.6Cas général : rédaction, classification, extraction$$$
Haiku 4.5Volume : tagging, summary court, parsing$

Mon défaut sur la plupart des workflows : Haiku 4.5 pour le classifier rapide, Sonnet 4.6 pour la rédaction qualité, Opus 4.7 uniquement pour les agents complexes.

Exemple complet

J’ai mis en open source un workflow n8n “Lead qualifier IA” sur mon GitHub. Il combine Anthropic + Supabase + HubSpot et tourne en production pour 4 clients agence. Vous pouvez le forker.

Pour aller plus loin et faire calibrer un workflow IA sur votre cas précis, c’est exactement le rôle du pack Workflow IA à 395 €. On part de votre besoin, je conçois et code, vous livrez en 5 jours. Un audit gratuit pour démarrer.

Partager cet article

Décrivez votre besoin en 2 min, je vous réponds sous 4 h

Audit gratuit · Pas de relance commerciale · Vous repartez avec un plan d'action utilisable.