ooligo
claude-skill

Leads gegen eine ICP-Rubrik bewerten mit Claude

Difficulty
Fortgeschritten
Setup time
30min
For
revops
RevOps

Stack

Ein Claude Skill, der eine beliebige Lead-Zeile gegen die ICP-Rubrik Ihres Teams ausführt und einen Score von 0–10, eine Begründung pro Kriterium mit Rubrik-Zitat, eine empfohlene nächste Aktion nach Tier und ein Eskalationsflag für Grenzfälle zurückgibt. Konzipiert zum Einbinden in eine Clay-KI-Spalte, eine HubSpot-Custom-Code-Aktion oder einen eigenständigen CLI-Lauf über ein CSV. Ersetzt die Tabellenkalkulations-Scoring-Matrix, die seit letztem Jahr niemand mehr aktualisiert hat — ohne vorzugeben, es könne auch Intent- oder Verhaltensscoring leisten, was es nicht kann.

Das Bundle wird unter apps/web/public/artifacts/lead-scoring-icp-rubric-skill/ bereitgestellt und enthält SKILL.md sowie drei Referenzvorlagen, die der Nutzer vor dem ersten Lauf anpasst.

Wann verwenden

Verwenden Sie diesen Skill, wenn eingehende MQLs schneller einlaufen, als Ihr SDR-Team sie triage kann, und das bestehende Scoring entweder nicht vorhanden ist („alles ist ein Lead”) oder veraltet ist („HubSpot-Scoring-Matrix zuletzt 2023 kalibriert, niemand vertraut ihr”). Er ist auch für Outbound nützlich: Bewerten Sie eine angereicherte Cold-Liste vor der Zuweisung, und Sie hören auf, SDR-Zeit für Unternehmen zu verbrennen, die außerhalb des ICP liegen, aber oberflächlich gut aussehen.

Der Skill ist Fit-Scoring, kein Intent-Scoring. Er beantwortet „Ist das die richtige Art von Unternehmen für uns?” — nicht „Sind sie diese Woche im Markt aktiv?” Diese Unterscheidung ist wichtig: Wenn Sie ausschließlich nach Fit scoren, werden Sie hervorragend passende Accounts sequenzieren, die keinen aktuellen Bedarf haben, und schlecht passende Accounts ignorieren, die aktiv kaufen. Kombinieren Sie diesen Skill mit allem, was In-Market-Verhalten signalisiert — Bombora, 6sense, Ihre eigenen Produktnutzungsdaten, Pricing-Page-Treffer — um korrekt zu routen.

Konkret aufrufen aus:

  • Einer Clay-KI-Spalte, die bei jeder neuen Zeile in einer Lead-Tabelle ausgelöst wird und Score und Begründung in zwei Spalten zurückschreibt.
  • Einer HubSpot-Custom-Code-Aktion in einem Workflow, der durch Lifecycle stage = MQL ausgelöst wird, den Skill aufruft und sowohl Score als auch Begründung in Lead-Properties schreibt.
  • Einem eigenständigen CLI über ein CSV-Export — nützlich für einmalige Listenscoring vor einem Kampagnenstart.

Wann NICHT verwenden

Verzichten Sie auf diesen Skill, wenn:

  • Sie Leads ohne menschliche Überprüfung automatisch ablehnen möchten. Die Ausgabe ist eine Empfehlung. Der Skill kennzeichnet Grenzfälle explizit mit escalate: needs_human_review, aber wenn Sie ihn so einbinden, dass er Leads mit Score C oder darunter löscht, werden Sie still Pipeline vernichten, sobald die Rubrik veraltet. Behalten Sie immer einen SDR-Überprüfungspfad für mindestens das C-Tier.
  • Ihre „Rubrik” auf Intuition basiert. Der Skill weigert sich, gegen eine Rubrik zu bewerten, die keine expliziten Gewichtungen und Tier-Werte hat. Wenn Ihr Team noch keine Einigung darüber erzielt hat, was eine A-Tier-Branche tatsächlich ist, führen Sie dieses Gespräch zuerst. Der Skill kann die Rubrik nicht belastbar machen, wenn die Grundlage es nicht ist.
  • Sie Verhaltens- oder Intent-Scoring benötigen. Dies ist ausschließlich Fit-Scoring. Der Versuch, „Engagement Score” oder „letzter Website-Besuch” in die Rubrik zu codieren, zwingt Sie zur ständigen Aktualisierung; verwenden Sie ein dediziertes Intent-Tool für die zeitveränderlichen Signale und behalten Sie diesen Skill für die statischen Fit-Signale.
  • Sie in einem regulierten Bereich tätig sind, der Erklärbarkeit jenseits von Kriterium-Begründungen erfordert. Pro-Kriterium-Ausgaben sind prüfbar, aber nicht dasselbe wie eine regulatorisch belastbare Modellkarte. Wenn Sie das benötigen, investieren Sie in einen richtigen Scoring-Service, nicht in einen Claude Skill.

Setup

Das Setup dauert etwa 30 Minuten, sobald die Rubrik erstellt ist. Die Rubrik selbst dauert länger — typischerweise eine 60-minütige Arbeitssitzung mit dem SDR-Manager, einem AE und jemandem aus RevOps, um über Gewichtungen zu diskutieren.

  1. Installieren Sie den Skill. Kopieren Sie apps/web/public/artifacts/lead-scoring-icp-rubric-skill/SKILL.md und den references/-Ordner in Ihr .claude/skills/lead-scoring/-Verzeichnis (oder laden Sie es als Skill in claude.ai hoch). Der Frontmatter name und description sind das, was den Skill bei relevanten Prompts auslöst.
  2. Ersetzen Sie die Rubrik-Vorlage. Öffnen Sie references/1-icp-rubric-template.md und ersetzen Sie die Platzhalterzeilen in „Criteria” durch Ihre tatsächlichen Kriterien, Gewichtungen (1–5) und Tier-Werte (A / B / C). Füllen Sie den Abschnitt „Hard disqualifiers” aus — diese laufen als deterministische Prüfungen vor jedem LLM-Aufruf. Aktualisieren Sie „Last edited”, damit der SHA-256, den der Skill in jeder Ausgabe-Fußzeile druckt, widerspiegelt, wem die aktuelle Version gehört.
  3. Ersetzen Sie die Tier-to-Action-Matrix. Öffnen Sie references/2-tier-to-action-matrix.md und ersetzen Sie die Beispielzeilen durch das, was Ihr Team tatsächlich bei jeder (tier, source_of_lead)-Kombination tut. Die Standardwerte sind vernünftig, aber nicht Ihre.
  4. Binden Sie die Eingabequelle ein. In Clay verweisen Sie eine KI-Spalte auf den Skill, übergeben die angereicherte Lead-Zeile als lead, die Rubrikdatei als rubric und die Quellspalte als source_of_lead. In HubSpot kapseln Sie den Skill in einer Custom-Code-Aktion, die die Kontakt- und Unternehmenseigenschaften in ein lead-Objekt liest und die strukturierte Ausgabe zurückschreibt. In einem Skript globben Sie das CSV, posten jede Zeile, schreiben Score und Begründung in zwei neue Spalten.
  5. Konfigurieren Sie das Ziel. Sowohl Score als auch Begründung gehen zum Lead. Score in einer Zahleneigenschaft (für Routing-Logik), Begründung in einer Langtext-Eigenschaft (für den SDR, der sie vor dem Anruf liest). Verdrahten Sie das escalate-Feld mit einer separaten Boolean- oder Enum-Eigenschaft, damit der SDR-Manager nach Überprüfungsbedarf filtern kann.
  6. Kalibrieren Sie. Führen Sie den Skill vor der Aktivierung über 20 kürzlich gewonnene und 20 kürzlich verlorene Leads aus den letzten 6 Monaten aus. Die Score-Verteilung sollte die beiden Kohorten klar trennen. Wenn nicht, ist die Rubrik das Problem, nicht der Skill — gehen Sie zu Schritt 2 zurück und diskutieren Sie die Gewichtungen erneut.

Was der Skill tatsächlich tut

Der Skill führt vier Schritte in fester Reihenfolge aus. Frühere Schritte bedingen spätere; parallelisieren Sie nicht.

Schritt 1 — deterministische firmografische Prüfungen. Vor jedem LLM-Aufruf führt einfacher Code die Hard-Disqualifier der Rubrik aus (Sanktionsland, disqualifizierte Branche, Mitarbeiterzahl unter Ihrem Minimum, Free-Mail-Domain) sowie die Pflichtfeld-Prüfung (email und company_domain müssen vorhanden sein). Treffer werden sofort zurückgegeben — disqualified mit Zitat oder escalate: insufficient_data mit den fehlenden Feldern. Warum zuerst deterministisch: Es ist kostenlos, schnell und halluziniert nie. Token zu verbrennen, um zu bestätigen, dass ein 3-Personen-Frisörbetrieb nicht in Ihrem Enterprise-SaaS-ICP liegt, ist Verschwendung.

Schritt 2 — LLM-Scoring pro Kriterium mit expliziter Gewichtung. Für jedes verbleibende Kriterium gibt das Modell einen Tier (A / B / C) und eine einzeilige Begründung mit Zitat der Rubrik-Zeile aus. Der Skill multipliziert Tier (A=3, B=2, C=1) mit der Gewichtung des Kriteriums und summiert. Warum pro Kriterium statt holistische Prompting: Holistische Ausgaben vermischen Kriterien still und Sie verlieren die Möglichkeit zu debuggen, warum ein Lead eine 8 statt einer 5 bekam. Warum explizite Gewichtung statt das Modell selbst balancieren lassen: Deklarierte Gewichtungen sind der einzige Weg, dass die Rubrik die Wahrheitsquelle bleibt. Wenn das Modell seine eigene Balance entscheidet, werden Rubrik-Reviews zur Farce.

Schritt 3 — Grenzfall-Fallback zur menschlichen Prüfung. Wenn der finale Score innerhalb von 0,5 einer Tier-Grenze liegt oder mehr als 3 Kriterien auf fehlenden oder abgeleiteten Daten bewertet wurden, setzt der Skill escalate: needs_human_review und nennt die fehlenden Felder. Der teuerste Scoring-Fehler ist nicht ein falscher Tier bei einem zuversichtlichen Lead — sondern ein falscher Tier bei einem Lead, der immer Grenzfall war.

Schritt 4 — Ausgabe-Assemblierung. Der Skill gibt das Markdown aus, das in references/3-sample-output.md beschrieben ist: Überschriften-Score und Tier, empfohlene nächste Aktion aus der Tier-to-Action-Matrix, Pro-Kriterium-Tabelle mit Begründungen, Disqualifier-Prüfung, Datenlücken-Liste und eine Fußzeile mit dem SHA-256 der Rubrik und dem zuletzt bearbeiteten Datum.

Kostenrealität

Die Token-Kosten pro Lead hängen von der Rubrik-Größe ab, aber für eine typische 6-Kriterien-Rubrik mit strukturierter Pro-Kriterium-Ausgabe sollten Sie mit etwa 1.500–2.500 Input-Token und 400–700 Output-Token pro Lead rechnen. Zu Claude Sonnet 4.x-Preisen (ca. $3 pro Million Input und $15 pro Million Output ab Ende 2026) sind das ca. $0,01–0,02 pro gescorertem Lead.

Ein Team mit 5.000 eingehenden MQLs pro Monat gibt rund $50–100/Monat an Claude-Token aus. Ein Team mit 50.000 angereicherten Outbound-Leads pro Monat gibt $500–1.000/Monat aus — wobei Batching, Prompt-Caching der Rubrik und Vorfilterung mit dem deterministischen Schritt erheblich ins Gewicht fallen. Der Skill verwendet standardmäßig einen einzigen strukturierten Prompt pro Lead (statt 6–10 kleiner Prompts), um die Token-Nutzung begrenzt zu halten.

Die Nicht-Token-Kosten sind größer. Die Rubrik zu erstellen ist eine 60-minütige Arbeitssitzung, die Sie einmalig durchführen und vierteljährlich wiederholen. Die Kalibrierung gegen 20 gewonnene + 20 verlorene Leads dauert weitere Stunden. Das Clay- oder HubSpot-Integration einzubinden ist ein halber Tag. Danach ist der Skill hands-off, bis die Rubrik driftet.

Erfolgsmetrik

Die zu beobachtende Metrik ist die Score-to-Conversion-Korrelation: Von den in den letzten 90 Tagen mit A bewerteten Leads, welcher Anteil wurde zu Opportunities? Von denen mit B? C? Wenn die Kurve monoton ist — A konvertiert höher als B, B höher als C — arbeitet die Rubrik. Wenn C ähnlich wie B konvertiert, trennt die Rubrik Fit nicht von Nicht-Fit und muss neu diskutiert werden.

Sekundärmetrik: SDR-Zeit-bis-Erstkontakt bei A-Tier-Leads. Ein funktionierendes Scoring-System kollabiert dies bei eingehenden Leads auf unter 1 Stunde. Wenn A-Tier-Leads noch 24 Stunden in einer Queue sitzen, ist das Routing — nicht das Scoring — der Engpass.

Vergleich mit Alternativen

vs HubSpot Predictive Lead Scoring. HubSpots eingebautes prädiktives Scoring ist eine Black Box, die auf Ihren historischen Konversionsdaten trainiert wurde. Es funktioniert, sobald Sie genug Closed-Won-Volumen haben (HubSpot empfiehlt etwa 500 abgeschlossene Deals als Minimum). Für Teams unter dieser Grenze hat das Modell nichts zu lernen und der Score ist Rauschen. Dieser Skill funktioniert vom ersten Tag an, weil die Rubrik handverfasst ist, nicht gelernt. Der Trade-off: HubSpots Modell erkennt Muster, die ein Rubrik-Autor übersehen würde; dieser Skill kennt nur, was Sie aufgeschrieben haben. Lassen Sie beide laufen, wenn Sie das Volumen haben — verwenden Sie HubSpots Score für „was überrascht mich” und die Pro-Kriterium-Begründung dieses Skills für „warum steht dieser hier”.

vs Marketo Behavioral Scoring. Marketo (oder HubSpots Verhaltensscoring) verfolgt Engagement-Signale — E-Mail-Öffnungen, Seitenaufrufe, Formular-Einreichungen — und addiert Punkte. Das ist Intent-Scoring, kein Fit-Scoring, und die beiden beantworten verschiedene Fragen. Ein hervorragend passender Account, der keine E-Mail geöffnet hat, ist immer noch hervorragend passend. Ein schlecht passender Account, der Ihren Blog intensiv gelesen hat, ist immer noch schlecht passend. Verwenden Sie Verhaltensscoring zusätzlich zu diesem Skill, nicht stattdessen; routen Sie auf das kombinierte Signal (hoher Fit + hohe Intent → AE direkt; hoher Fit + geringe Intent → Nurture; geringer Fit + hohe Intent → SDR-Fit-Call vor AE).

vs manuelle SDR-Prüfung. Bei unter 50 eingehenden Leads pro Woche ist die manuelle Prüfung durch einen SDR-Manager tatsächlich konkurrenzfähig — Menschen erkennen Nuancen, die der Skill übersieht. Über ~200 Leads pro Woche wird die manuelle Prüfung zum Engpass und die Konsistenz sinkt. Der Skill skaliert linear mit dem Token-Budget; Menschen nicht.

Fallstricke

  • Rubrik-Drift. Jemand bearbeitet die Markdown-Rubrik, übernimmt die Änderung, und SDRs, die die neuen Scores lesen, sehen nie einen Diff. Sechs Wochen später stellt das Team fest, dass die Mitarbeitergewichtung versehentlich von 4 auf 2 geändert wurde und 200 Stretch-Tier-Accounts still auf C herabgestuft wurden. Schutz: Der Skill erfasst den SHA-256 der Rubrik in jeder Ausgabe-Fußzeile und stellt eine „Rubric updated YYYY-MM-DD”-Banner voran, wann immer sich der Hash zwischen Läufen ändert. Eine vierteljährliche Kalender-Erinnerung erzwingt eine Überprüfung, auch wenn keine Bearbeitungen stattgefunden haben.
  • Quellen-Bias-Verstärkung. Eine Rubrik, die aus Ihrer Closed-Won-Menge aufgebaut wurde, kodiert, an wen Sie bereits verkauft haben. Das Scoring dagegen macht Sie blind für benachbarten ICP und Ihre Pipeline verengt sich im Laufe der Zeit auf Lookalikes der Kunden vom letzten Jahr. Schutz: Samplen Sie jeden Quartal 20 Leads, die der Skill als C-Tier eingestuft hat, und lassen Sie einen AE manuell prüfen, ob diese tatsächlich passend sind. Wenn mehr als 3 falsch klassifiziert sind, fügen Sie der Rubrik eine „Stretch ICP”-Zeile hinzu und rekalibrieren Sie.
  • Falsche Zuversicht bei dünnen Daten. Wenn bei 4 von 6 Kriteriensfeldern Anreicherungsdaten fehlen, ist ein Score von 7,4 meist Rauschen, liest sich aber als autoritativ. SDRs behandeln ihn als zuversichtiges A-Tier und überspringen die Call-Vorbereitung. Schutz: Der Skill setzt escalate: needs_human_review, wenn mehr als 3 Kriterien auf fehlenden oder abgeleiteten Daten bewertet wurden, und fügt einen Abschnitt „Data gaps” mit den fehlenden Feldern hinzu. SDRs werden trainiert, den Lückenabschnitt vor der Überschriftszahl zu lesen.
  • Proxies für geschützte Merkmale. Auch mit guten Absichten kann eine Rubrik, die „Geographie” gewichtet, in Nationalität kollabieren, und „Branche” kann in Proxies für Unternehmensdemografien kollabieren, die Ihre Rechtsabteilung nicht erfreuen wird. Schutz: Der Skill lehnt Felder ab, die er als Proxies für geschützte Merkmale erkennt (namensbasiertes Geschlecht, Foto, Alterssignale). Prüfen Sie die Rubrik jährlich mit jemandem, der auch die weniger offensichtlichen Proxies erkennt.

Stack

  • Claude — Scoring-Engine und Begründungsgenerator. Sonnet 4.x ist der Sweet Spot für Kosten vs. Reasoning-Qualität bei dieser Aufgabe; Haiku funktioniert für den nur-deterministischen Pfad, verliert aber Begründungsqualität beim LLM-Schritt.
  • Clay — bevorzugte Lead-Quelle und Anreicherungsschicht für Outbound- und Cold-List-Scoring. Die KI-Spalte ist ein sauberer Integrationspunkt.
  • HubSpot — CRM-Ziel für Score, Begründung, Eskalations-Flag und Quelle. Custom-Code-Aktionen sind der Integrationspunkt für eingehendes MQL-Scoring.
  • Ein Markdown-Editor und ein Kalender — die unspektakulären Teile. Die Rubrik lebt in Markdown, die vierteljährliche Überprüfung lebt im Kalender von jemandem, und beides ist wichtiger als die Modellwahl.

Files in this artifact

Download all (.zip)