Intégrer Claude (Anthropic) dans n8n : tutoriel pas à pas 2026
Tutoriel pas à pas pour intégrer Claude (Anthropic) dans n8n : génération de contenu, classification, RAG, tool use. Avec exemples et bonnes pratiques.
Etienne Aubry
Développeur & Expert Automatisation IA
Claude (la famille de modèles d’Anthropic) est, fin 2025 et en 2026, le modèle d’IA générative que j’utilise par défaut sur 80 % des automatisations clients. Plus fiable que GPT-4 en français, meilleur sur les tâches longues (200K tokens de contexte), excellent en raisonnement structuré.
Ce tutoriel montre comment intégrer Claude dans n8n pour des cas d’usage réels : classification de leads, génération de contenu, RAG, et tool use (agent).
Pré-requis
- n8n installé et fonctionnel (guide self-hosted)
- Compte Anthropic avec une clé API (créer sur console.anthropic.com)
- Crédit Anthropic (5 $ minimum recommandé pour tester sereinement)
Étape 1 — Configurer la credential Anthropic
Dans n8n :
- Aller dans Credentials → New credential
- Chercher “Anthropic”
- Choisir Anthropic API
- Coller votre clé
sk-ant-api03-... - Sauvegarder
n8n chiffre la clé avec votre N8N_ENCRYPTION_KEY (raison de plus pour bien la sauvegarder hors VPS).
Étape 2 — Premier nœud Anthropic
Créez un nouveau workflow, ajoutez un Manual Trigger puis un nœud Anthropic Chat Model ou directement le nœud Anthropic (selon votre version n8n).
Configuration minimale :
- Model :
claude-opus-4-7(le plus récent, le plus puissant) - Max tokens : 1024 pour démarrer
- Messages :
- Role :
user - Content :
Explique en 3 phrases ce qu'est l'API Anthropic
- Role :
Exécutez. Vous devriez voir la réponse de Claude apparaître dans la sortie du nœud.
Cas d’usage 1 — Classification de leads
C’est le cas qui paie le mieux : trier automatiquement les leads entrants en chaud/tiède/froid pour que vos commerciaux se concentrent sur les vrais prospects.
Workflow
- Webhook (déclenché par votre formulaire Typeform/HubSpot)
- Anthropic avec le prompt suivant :
Tu es un expert en qualification de leads B2B SaaS.
Voici un lead :
- Nom : {{$json.name}}
- Email : {{$json.email}}
- Entreprise : {{$json.company}}
- Taille équipe : {{$json.size}}
- Besoin exprimé : {{$json.need}}
- Budget : {{$json.budget}}
Classifie ce lead en :
- "chaud" : prêt à acheter sous 30 jours, budget validé, besoin clair
- "tiede" : intéressé mais flou sur le timing ou le budget
- "froid" : curiosité, pas de budget alloué
Réponds STRICTEMENT au format JSON :
{ "classification": "chaud|tiede|froid", "score": 0-100, "raison": "explication courte" }
- Code node pour parser le JSON
- Switch sur la classification → HubSpot/Slack/Email selon le cas
Important : utilisez le mode JSON output de Claude (paramètre response_format ou prompt explicite avec <output>). Sinon, vous aurez parfois du texte libre qui casse votre workflow.
Cas d’usage 2 — Génération de contenu
Génération d’articles, descriptions produits, emails personnalisés. Voici un exemple pour des emails de prospection personnalisés :
Prompt
Tu es un copywriter B2B spécialisé en prospection.
Contexte :
- Mon offre : {{$json.offre}}
- Prospect : {{$json.prenom}}, {{$json.poste}} chez {{$json.entreprise}}
- Secteur prospect : {{$json.secteur}}
- Information personnalisée trouvée sur LinkedIn : {{$json.info_linkedin}}
Rédige un email de prospection :
- 80 mots maximum
- Tutoyer
- Mentionner l'info LinkedIn dans la 1ère phrase
- 1 question ouverte à la fin
- Pas de "j'espère que vous allez bien"
- Pas de mots vides ("synergie", "solutions", "innovant")
Format de sortie :
SUJET : [sujet de l'email, max 50 chars]
CORPS : [le corps de l'email]
Astuces
- Tutoyer/vouvoyer : précisez-le explicitement, Claude par défaut vouvoie
- Anti-pattern : ne demandez pas à Claude des trucs vagues comme “fais quelque chose de bien”. Soyez précis
- Système prompt : utilisez le paramètre
system(séparé des messages) pour fixer la personnalité/style. C’est plus stable que de le mettre dans leusermessage
Cas d’usage 3 — RAG (Retrieval-Augmented Generation)
Le RAG permet à Claude de répondre sur la base de vos documents (FAQ, doc produit, base de connaissances) plutôt que ses connaissances générales. C’est ce qui transforme un chatbot générique en assistant métier.
Architecture
- Indexation (1 fois) : vos documents → chunks → embeddings → stockés dans un vector store (Supabase pgvector, Pinecone, Weaviate)
- Requête (temps réel) : question utilisateur → embedding → recherche similarité → top 5 chunks → injectés dans le prompt Claude → réponse
Workflow n8n
Webhook (question)
→ Embedding OpenAI (text-embedding-3-small)
→ Supabase vector search (similarity top 5)
→ Code node (assembler chunks)
→ Anthropic Claude avec prompt :
"Réponds à la question en t'appuyant UNIQUEMENT sur les sources fournies.
Si la réponse n'est pas dans les sources, dis : 'Je n'ai pas cette information.'
Sources :
{{$json.chunks}}
Question : {{$json.question}}"
→ Webhook response
Astuce qualité : ajoutez des citations dans le prompt. Demandez à Claude de référencer la source de chaque info ([Source 1], [Source 2]). Ça force le modèle à se baser réellement sur les chunks et réduit les hallucinations.
Pour un guide complet, voir RAG : le guide complet.
Cas d’usage 4 — Tool use (agent)
C’est le futur. Au lieu de chaîner manuellement des nœuds, vous donnez à Claude un set de tools et il décide quoi appeler.
Exemple : agent de gestion d’agenda
Outils définis :
get_calendar(date): récupère les événementscreate_event(title, datetime, duration): crée un événementsend_email(to, subject, body): envoie un email
L’utilisateur dit : “Cale un point avec Marie demain à 14h, et envoie-lui un email de confirmation.”
Claude appelle :
create_event("Point Marie", "2026-05-15T14:00", 30)send_email("marie@...", "Point demain 14h", "Salut Marie, ...")
Implémentation n8n
n8n a un nœud AI Agent qui orchestre tool use nativement. Vous définissez :
- Les tools (chaque tool = un sub-workflow ou un nœud HTTP)
- Le system prompt
- Le modèle (Claude)
Et n8n gère la boucle “tool call → exécution → re-prompt” automatiquement.
Bonnes pratiques production
1. Gestion d’erreurs
Anthropic peut renvoyer des erreurs : rate limit (429), surcharge (529), tokens dépassés. Wrappez vos nœuds Anthropic dans un Try/Catch avec retry exponentiel :
// Code node "retry-with-backoff"
const maxRetries = 3;
let lastError;
for (let i = 0; i < maxRetries; i++) {
try {
return await callClaude(items[0].json.prompt);
} catch (err) {
lastError = err;
if (err.status === 429 || err.status === 529) {
await new Promise(r => setTimeout(r, Math.pow(2, i) * 1000));
} else {
throw err;
}
}
}
throw lastError;
2. Surveiller le coût
Claude facture au token (entrée + sortie). À volume, ça monte vite. Loggez chaque appel avec le token count et le coût estimé :
- Sonnet 4.6 : ~$3/M input, $15/M output
- Opus 4.7 : ~$15/M input, $75/M output
- Haiku 4.5 : ~$0.80/M input, $4/M output
Pour 90 % des cas d’usage métier, Haiku 4.5 suffit largement et coûte 18× moins cher qu’Opus.
3. Caching prompt
Anthropic supporte le prompt caching : si votre prompt système fait 8K tokens et est identique sur 1000 appels, vous payez 10× moins cher pour la partie en cache. Activez-le sur les system prompts longs et stables.
4. Limiter les hallucinations
- Ajoutez
<thinking>dans le prompt pour forcer le raisonnement explicite - Demandez de citer les sources sur les tâches factuelles
- Utilisez constrained sampling (réponses dans un set fini) via prompt explicite
- Ne demandez pas à Claude des chiffres précis qu’il ne peut pas connaître (taux de change, météo) — passez par une API dédiée
Choisir le bon modèle Claude
| Modèle | Cas d’usage | Prix |
|---|---|---|
| Opus 4.7 | Tâches complexes : analyse stratégique, code, raisonnement | $$$$$ |
| Sonnet 4.6 | Cas général : rédaction, classification, extraction | $$$ |
| Haiku 4.5 | Volume : tagging, summary court, parsing | $ |
Mon défaut sur la plupart des workflows : Haiku 4.5 pour le classifier rapide, Sonnet 4.6 pour la rédaction qualité, Opus 4.7 uniquement pour les agents complexes.
Exemple complet
J’ai mis en open source un workflow n8n “Lead qualifier IA” sur mon GitHub. Il combine Anthropic + Supabase + HubSpot et tourne en production pour 4 clients agence. Vous pouvez le forker.
Pour aller plus loin et faire calibrer un workflow IA sur votre cas précis, c’est exactement le rôle du pack Workflow IA à 395 €. On part de votre besoin, je conçois et code, vous livrez en 5 jours. Un audit gratuit pour démarrer.
À lire ensuite
Agent IA autonome : architecture, limites et cas d'usage
Tout sur les agents IA autonomes en 2026 : architecture en boucle, tool use, mémoire, limites réelles et cas d'usage qui marchent en production.
Anthropic Files API : automatiser le traitement de documents
Découvre comment l'API Files d'Anthropic révolutionne le traitement automatique de PDF, contrats et factures avec Claude. Guide complet et cas d'usage.
Onboarding client SaaS : 8 étapes à automatiser absolument
Le guide complet pour automatiser l'onboarding client d'un SaaS B2B : 8 étapes clés, stack technique, métriques activation, retours de 5 déploiements réels.
Décrivez votre besoin en 2 min, je vous réponds sous 4 h
Audit gratuit · Pas de relance commerciale · Vous repartez avec un plan d'action utilisable.