ooligo
claude-skill

Leads automatisch anreichern mit Clay + Claude

Difficulty
Fortgeschritten
Setup time
30min
For
revops · sdr-leader
RevOps

Stack

Ein Claude Skill (lead-enrichment), der eine Clay-Tabellenzeile mit dem Schlüsselfeld domain verarbeitet und drei abgeleitete Felder in einem einzigen strukturierten Durchlauf zurückgibt: eine 2-Satz-Unternehmenszusammenfassung, einen ICP-Fit-Score von 1–10 mit einer einzeiligen Begründung und einen Cold-Email-Opener mit weniger als 50 Wörtern, der ein konkretes Signal aus dem öffentlichen Auftritt des Unternehmens zitiert. Der Opener ist stets ein Entwurf zur Prüfung durch den Vertriebsmitarbeiter — der Skill lehnt es ab, in einen Auto-Send-Schritt eingebunden zu werden.

Das Artefakt-Bundle wird unter apps/web/public/artifacts/lead-enrichment-clay-claude/ bereitgestellt und enthält den Skill-Body (SKILL.md) sowie drei Referenzvorlagen, die der Operator einmalig ausfüllt und die der Skill bei jedem Durchlauf lädt.

Wann verwenden

  • Sie haben eine Clay-Tabelle (oder eine als CSV exportierbare Lead-Liste) mit mindestens einer befüllten domain-Spalte und möchten angereicherte Datensätze in HubSpot, Salesforce, Attio oder einen Sequencer übertragen.
  • Das Volumen liegt im Bereich von Hunderten bis Zehntausenden pro Batch. Darunter ist das manuelle Verfassen von Openern schneller. Darüber sorgt die Kostendisziplin dieses Skills (ICP-gesteuertes Opener-Generation, Single-Call-Extraktion, Host-bezogene Fetch-Limits) dafür, dass der Preis pro Zeile vertretbar bleibt.
  • Vertriebsmitarbeiter sind bereit, den Entwurfs-Opener vor dem Versand zu lesen. Das gesamte Design geht von einem menschlichen Auge zwischen Entwurf und Versand aus — ohne diese Prüfung funktioniert das System schlecht.
  • Sie wünschen einen einzigen Skill, den das Team sowohl aus Clay-KI-Spalten als auch aus einer Claude Code-Session aufrufen kann, die die Anthropic Batch API über eine exportierte Liste nutzt — der Skill-Body ist auf beiden Oberflächen identisch.

Wann NICHT verwenden

  • Auto-Send-Sequencer. Wenn geplant ist, opener_draft direkt in den ersten Sequenzschritt einzubinden, stoppen Sie hier. Das Feld opener_confidence existiert aus gutem Grund: Etwa jeder fünfte Entwurf muss überarbeitet werden. Das automatische Versenden ist genau der Fehlerfall, gegen den der Skill konzipiert ist.
  • Listen ohne dokumentierte Rechtsgrundlage zur Verarbeitung. Gescrapte EU- oder UK-Kontakte ohne vorherige Einwilligung, Quebec-Leads unter Law 25, California Consumer Data ohne CCPA-Pfad — der Skill reichert alles an, worauf Sie ihn richten, und genau deshalb muss der Operator vorab prüfen. Die MDX-Seite liefert in SKILL.md einen „Do NOT invoke”-Block für diesen Zweck; kommentieren Sie ihn nicht aus.
  • Account-Level-Discovery-Briefings. Verwenden Sie stattdessen den account-research-Skill. Dieser führt tiefes Persona-Mapping und Schmerzpunkt-Hypothesen durch; dieser Skill optimiert für Batch-Volumen und Kosten pro Zeile.
  • Entscheidungen, die lizenzierte Finanzdaten erfordern (S&P, Pitchbook). Dieser Skill liest nur öffentliche Web-Inhalte und erfindet keine Umsatzzahlen aus Homepage-Texten.
  • Listen mit minderwertigen Quelldaten. Schlechte Domains rein, schlechte Entwürfe raus. Führen Sie Clay’s Domain-Validierungsspalte vorgelagert aus; geparkte Domains und 404-Fehler werden vom Skill übersprungen, aber Sie zahlen dennoch Credits dafür.

Setup

  1. Fügen Sie den Skill in Ihre Umgebung ein. Für Claude.ai importieren Sie SKILL.md aus apps/web/public/artifacts/lead-enrichment-clay-claude/SKILL.md und laden Sie die drei Dateien aus references/ hoch. Für Claude Code kopieren Sie das Verzeichnis nach ~/.claude/skills/lead-enrichment/.
  2. Ersetzen Sie jeden {...}-Platzhalter in references/1-icp-rubric.md durch das tatsächliche ICP Ihres Teams. Der Skill erkennt nicht ersetzte Platzhalter und lehnt es ab, gegen eine Vorlage zu bewerten — score: null, reason: "rubric not configured" statt zu raten. Das ist beabsichtigt; eine falsche Rubrik ist schlimmer als keine.
  3. Bearbeiten Sie references/2-opener-style-guide.md mit der Stimme und den verbotenen Phrasen Ihres Teams. Die Standardeinstellungen verbieten offensichtliche LLM-Hinweise (“I noticed”, “love what you’re doing”, jede Superlativform); fügen Sie unternehmensspezifische Verbote hinzu, sobald Ihre Vertriebsmitarbeiter diese melden.
  4. Bearbeiten Sie references/3-source-quality-matrix.md, um die Präferenzreihenfolge zwischen den Anreicherungsanbietern zu definieren, die in Ihrer Clay-Tabelle vorgelagert eingebunden sind. Ohne eine deklarierte Reihenfolge wechselt der Snapshot-Schritt zwischen Apollo und Clearbit und ICP-Scores driften.
  5. Erstellen Sie in Clay drei KI-Spalten, die auf den Skill verweisen: summary, icp_fit_score, opener_draft. Ordnen Sie die Eingaben gemäß dem Abschnitt „Inputs” in SKILL.md zu. Richten Sie den Ziel-Push auf HubSpot (oder Ihr CRM) ein und leiten Sie opener_draft in eine Sequenzvariable bei einem Schritt, der manuelle Genehmigung erfordert — kein Auto-Send.
  6. Führen Sie den Skill auf einer 20-Zeilen-Stichprobe aus. Stichprobenprüfung: Lassen sich die Snapshot-Fakten auf echten Homepage-Text zurückverfolgen, liegen die ICP-Scores in einer sinnvollen Verteilung, bestehen die Opener die Style-Guide-Prüfung? Passen Sie Rubrik und Style Guide an, bevor Sie skalieren. Die ersten 100 Zeilen sind Kalibrationsdaten; behandeln Sie sie entsprechend.

Was der Skill tatsächlich tut

Pro Zeile vier Teilaufgaben der Reihe nach:

  1. Auflösen und Abrufen. https://{domain} mit 10-Sekunden-Timeout und einem Redirect-Hop, dann bestmögliches Abrufen von /about, /company, /customers. Geparkte / 404 / leere Domains liefern status: unreachable und überspringen den Rest. Pro-Host-Concurrent-Cap ist 2, mit einem Mindestverzug von 250 ms und einem einzelnen Backoff-Retry bei 429.
  2. Strukturierten Snapshot extrahieren in einem Claude-Call: Industry, size_signal, value_prop, optionales recent_signal mit URL. Ein einziger Call statt drei, weil die Round-Trip-Anzahl der dominante Kosten-pro-Zeile-Treiber im großen Maßstab ist und der Extraktionsprompt in einem Durchlauf zuverlässig bleibt.
  3. Scoring gegen die ICP-Rubrik. Lädt references/1-icp-rubric.md, gibt 1–10 mit einer einzeiligen Begründung zurück, die die Rubrik-Dimension nennt, die den Score bestimmt hat.
  4. Opener generieren — nur wenn der Score den Schwellenwert überschreitet (Standard 6/10). Harte Regeln im Prompt: 50-Wörter-Limit, referenziert genau eine Tatsache aus dem Snapshot, keine Superlative, keine erfundenen Unternehmensbehauptungen, kein falscher Schmerzfragen-Abschluss. Gibt opener_confidence 0,0–1,0 zurück; unter 0,5 wird zur Überarbeitung markiert.

Die Ausgabe einer Zeile ist ein JSON-Block eingebettet in Markdown — Clays KI-Spalte parst ihn, und ein Mensch, der das Laufprotokoll liest, kann ihn überscannen. Vollständiges Schema und ein ausgearbeitetes Beispiel befinden sich im Abschnitt „Output format” in apps/web/public/artifacts/lead-enrichment-clay-claude/SKILL.md.

Kostenrealität

Es gibt zwei Kostenpositionen: Anthropic-Token und Clay-Credits.

Anthropic-Token zu Sonnet-Preisen (Input $3/MTok, Output $15/MTok zum Zeitpunkt der Erstellung):

  • Schritte 1+2 (Fetch + Extraktion): ~3,5K Input-Token (Homepage + About, abgeschnitten auf ~8K Zeichen) + ~250 Output-Token. Ungefähr $0,014/Zeile.
  • Schritt 3 (ICP-Score): ~1K Input + ~80 Output. Ungefähr $0,004/Zeile.
  • Schritt 4 (Opener, nur wenn Score >= Schwellenwert): ~1,2K Input + ~120 Output. Ungefähr $0,005/Zeile.

Eine Zeile, die den Schwellenwert überschreitet, kostet also etwa $0,023; eine Zeile, die ihn nicht überschreitet, etwa $0,018. Verwenden Sie die Anthropic Batch API für ~50% Rabatt bei nicht dringenden Workloads (nächtliche Anreicherung eingehender MQLs ist der Lehrbuchfall) — das senkt die Zeilen in den Bereich $0,01–0,012.

Im großen Maßstab: Ein wöchentlicher Batch von 100.000 Zeilen mit ~40% Schwellenwert-Clearern kostet vor dem Batch-Rabatt ~$1.500–2.000/Monat bei Anthropic, ~$800–1.000 danach.

Clay-Credits hängen davon ab, welche Anbieter-Spalten vorgelagert eingebunden sind. Apollo kostet etwa 1 Credit pro aufgelöster Domain; Clearbit Reveal 2–3; ZoomInfo (bezahlter Passthrough) mehr. Drei Anbieter gestapelt und eine einzelne Zeile kann 8–12 Clay-Credits kosten, bevor der Skill selbst läuft. Der Starter-Plan liefert 5K Credits/Monat; der Pro-Plan 25K. Ein 100K-Zeilen-Batch unter diesem Anbieter-Stack benötigt den Enterprise-Tier oder eine engere Matrix in references/3-source-quality-matrix.md. Die Matrix dient genau dazu, den am niedrigsten bewerteten Anbieter zu entfernen, wenn das Pro-Zeilen-Kostenlimit ausgelöst wird.

Wenn die Mathematik rau erscheint, ist der ICP-Schwellenwert der Hebel. Eine Erhöhung von 6 auf 7 unterdrückt typischerweise die Opener-Generierung bei 25–35% mehr Zeilen; eine Erhöhung auf 8 eliminiert weitere 20%. Der Skill protokolliert am Ende jedes Batches die Score-Verteilung, damit der Operator empirisch statt nach Bauchgefühl abstimmen kann.

Erfolgsmetrik

Antwortrate auf die vom Vertriebsmitarbeiter geprüften Opener, segmentiert nach opener_confidence-Bucket. Der Zweck des Skills ist nicht „mehr Opener pro Stunde” — sondern „Opener, die gut genug sind, dass Vertriebsmitarbeiter aufhören, sie von Grund auf neu zu schreiben”. Zwei Teilmetriken, die es sich lohnt zu instrumentieren:

  • Überarbeitungsrate — welcher Anteil der opener_draft-Werte wird vom Vertriebsmitarbeiter unverändert gesendet vs. materiell überarbeitet. Ziel: unter 35% bei Confidence-0,7+-Zeilen nach der ersten 500-Zeilen-Kalibrierung. Höher bedeutet, dass der Style Guide falsch ist, die Rubrik falsch ist oder der Snapshot-Schritt halluziniert.
  • Antwortrate nach Confidence-Bucket. Die Antwortrate bei opener_confidence >= 0,7 sollte mindestens das 1,5-Fache der Antwortrate beim Sub-0,5-Bucket betragen. Wenn sie ähnlich sind, ist der Confidence-Score kein Signal — untersuchen Sie dies, bevor Sie ihm als Routing-Input vertrauen.

Vergleich mit Alternativen

  • vs. Apollo’s native Sequenz-Personalisierung. Apollo generiert Opener aus eigenen Anreicherungsdaten. Schneller aufzubauen, aber die Opener sind sichtbar vorlagenbasiert, auf Apollos ICP-Heuristik (nicht Ihrer) bewertet und haben keinen Audit-Trail, welche Tatsache den Entwurf bestimmt hat. Dieser Skill dauert länger beim Setup und kostet mehr pro Zeile, aber die Opener referenzieren datierte URLs, die Sie mit einem Klick verifizieren können, und die Rubrik ist eine Datei, die Sie kontrollieren.
  • vs. Clearbit + Outreach Smart Variables. Clearbit-basierte Smart Variables erzeugen faktisches Mail-Merge ("their industry is ${X}"), keine Opener — sie benötigen einen Menschen, der den eigentlichen Satz um die Variable herum schreibt. Günstiger als dieser Skill, wenn Ihre Vertriebsmitarbeiter die Sätze bereits schreiben; insgesamt teurer, wenn nicht, weil die Vertriebsmitarbeiterzeit die Token-Kosten dominiert.
  • vs. manuelles Opener-Schreiben. Ein erfahrener SDR schreibt einen hochwertigen Cold-Opener in 4–7 Minuten pro Account bei ~$60/Stunde Vollkosten — etwa $5 SDR-Zeit pro Opener. Der Skill kostet höchstens ~$0,025 pro Opener. Der Haken: Der SDR hat beim Schreiben auch etwas Account-Level-Denken betrieben. Der Skill tut das nicht. Die richtige Form für die meisten Teams ist der Skill für Top-of-Funnel-Volumen (alles unterhalb der Tier-1-Account-Liste) und vom Vertriebsmitarbeiter geschriebene Opener für die Named-Account-Liste.
  • vs. Status quo (keine Anreicherung, generische Opener). Antwortrate bei generischen Openern liegt irgendwo im Bereich 1–2%; leicht personalisierte Opener, die auf ein aktuelles Signal eingehen, liegen bei 4–8% in veröffentlichten Benchmarks. Der Skill zielt auf Letzteres ab. Lohnenswert nur, wenn das Team bereit ist, Rubrik und Style Guide aufzubauen; ohne diese sind die Skill-Ausgaben nicht wesentlich besser als der Status quo.

Fallstricke

  • Quellqualitätsdrift zwischen Anbietern. Wenn Apollo, Clearbit und ZoomInfo dieselbe Zeile anreichern und bei Mitarbeiterzahl oder Branche nicht übereinstimmen, wechselt der Snapshot-Schritt zwischen ihnen hin und her. Schutz: references/3-source-quality-matrix.md deklariert die Präferenzreihenfolge; der Snapshot zitiert pro Feld, welcher Anbieter (oder Homepage-Wert) verwendet wurde, sodass Drift im Zeilen-conflicts-Log prüfbar ist.

  • Opener erfindet Behauptungen, die nicht in den Daten stehen. Ohne strikte Prompting-Regeln fabrizieren Opener zuversichert klingende Fakten („Glückwunsch zur Series C” ohne Series C). Schutz: Der Opener-Prompt erhält den Snapshot inline mit einer expliziten Regel „Fakten, die nicht im Snapshot stehen, sind verboten”; recent_signal trägt eine URL zur One-Click-Verifizierung; Opener unter opener_confidence 0,5 werden zur Überarbeitung markiert, nie automatisch gesendet.

  • Kosteneskalation pro Zeile, wenn der ICP-Filter zu locker ist. Eine Rubrik, die die meisten Zeilen mit 7+ bewertet, überwindet die Schwellenwert-Sperre; die Opener-Generierung läuft für jede Zeile und die Pro-Zeilen-Kosten steigen um das 3–4-Fache. Schutz: Der Skill gibt am Ende jedes Batches eine score_distribution-Zusammenfassung aus; wenn mehr als 60% einer 1K-Zeilen-Stichprobe bei 7+ landen, gibt der Skill eine Warnung aus und empfiehlt, die Rubrik vor dem nächsten Batch zu verschärfen.

  • Veraltetes recent_signal. Ein vor 90 Tagen extrahiertes Signal wird zur Haftung — Vertriebsmitarbeiter, die im August „saw your March launch” schreiben, wirken eingeschlafen. Schutz: Jeder Datensatz trägt enriched_at; die Clay-Spalte ist so konfiguriert, dass sie erneut ausgeführt wird, wenn sie älter als 30 Tage ist; der Opener-Schritt weigert sich, ein recent_signal zu verwenden, dessen URL-Datum mehr als 60 Tage hinter enriched_at liegt.

  • Einwilligung und Rechtsgrundlage. Der Skill reichert alles an, worauf Sie ihn richten. Der „Do NOT invoke”-Block in SKILL.md erinnert den Operator daran, die Rechtsgrundlage der Quellliste vor der Ausführung zu prüfen. Löschen Sie ihn nicht.

Stack

  • Clay — Tabellen-Substrat, vorgelagerter Anreicherungsanbieter-Stack, Ziel-CRM-Push. Der Starter-Plan unterstützt das KI-Spalten-Primitiv, in das der Skill eingebunden wird; Pro ist für das Credit-Volumen jedes ernsthaften Batches erforderlich.
  • Claude (standardmäßig Sonnet) — die Inferenzschicht für Snapshot-Extraktion, ICP-Scoring und Opener-Generierung. Über Clays native KI-Spalte oder über die Anthropic Batch API aus einer Claude Code-Session für nicht dringende Batches zum halben Preis ausführen.
  • HubSpot, Salesforce oder Attio — Ziel-CRM. summary → Custom Property, icp_fit_score → Custom Property + View-Filter, opener_draft → First-Touch-Sequenzvariable bei einem manuellen Genehmigungsschritt zuordnen.

Files in this artifact

Download all (.zip)