ooligo
claude-skill

KI-gestütztes Kandidaten-Sourcing mit Claude

Difficulty
Fortgeschritten
Setup time
45min
For
recruiter · sourcer · talent-acquisition
Recruiting & TA

Stack

Eine Claude Skill, die ein Jobbeschreibungsprofil sowie ein ICP-Rubrik entgegennimmt, eine KI-Sourcing-Abfrage gegen Juicebox, hireEZ oder LinkedIn Recruiter aufbaut, bis zu 200 Kandidaten abruft, jeden gegen das Rubrik mit zitierten Belegen bewertet und personalisierten Outreach für die Top-N entwirft – dann an einem menschlichen Review-Gate stoppt. Der Recruiter liest die Shortlist, bearbeitet die Nachrichten und sendet. Ersetzt die 3-Stunden-Boolean-plus-Scoring-plus-Outreach-Schleife durch eine 30-Minuten-Review-Schleife.

Wann einsetzen

  • Sie sourcen für eine Stelle, die öfter als einmal pro Quartal besetzt wird, und das ICP-Rubrik ist stabil genug, um es zu verschriftlichen.
  • Sie haben ein ICP-Rubrik mit Verhaltensankern pro Dimension (nicht nur vage Bezeichnungen). Die Rubrik-Vorlage in references/1-icp-rubric-template.md des Bundles zeigt die Form; wenn Sie sie nicht ausfüllen können, haben Sie noch kein Rubrik, gegen das diese Skill bewerten kann.
  • Sie haben API-Zugang zu Juicebox PeopleGPT, hireEZ oder LinkedIn Recruiter. Die Skill lehnt es ab, auf das Scrapen öffentlicher LinkedIn-URLs zurückzufallen.
  • Ein menschlicher Recruiter oder Sourcer überprüft jede Shortlist, bevor Outreach versandt wird. Die Skill schreibt Entwürfe auf die Festplatte und stoppt.

Wann NICHT einsetzen

  • Auto-Ablehnung in der Schleife. Die Skill rankt; sie lehnt nicht ab. Die „übersprungenen” Kandidaten werden mit Begründungen für den Recruiter zum Überstimmen aufgezeigt. Das Verdrahten einer reject-Aktion an einen Score-Schwellenwert verwandelt dies in automatisierte Entscheidungsfindung und löst EU-KI-Gesetz-Anhang-III-Hochrisiko-Pflichten plus NYC LL 144 Bias-Audit-Pflichten innerhalb eines Jahres vor der Nutzung aus. Wenn Sie das benötigen, lassen Sie ein Bias-Audit durchführen, nicht diese Skill.
  • Scoring auf Protected-Class-Proxies. Schul-Tier als eigenständige Dimension, Namensherkunft, Foto-Präsenz, Employment-Gap-Strafen, aus dem Abschlussjahr abgeleitetes Alter, „Culture Fit” ohne Verhaltensanker. Die Fairness-Checkliste der Skill lehnt die Ausführung ab, wenn eines davon im Rubrik erscheint. Bearbeiten Sie die Checkliste nicht, um ein voreingenommenes Rubrik passieren zu lassen.
  • Gehalts-Band-Empfehlungen. NYC LL 32-A, Colorado, Kalifornien und Washington erfordern veröffentlichte Bänder und Bias-Audit-Pflichten bei automatisierten Vergütungsentscheidungen. Verwenden Sie ein Comp-Benchmarking-Tool, keine Sourcing-Skill.
  • Einmalige C-Suite-Suchen. Eine Retained Search für eine spezifische namentlich genannte Person oder eine eng definierte Führungskraft ist von einem Menschen mit Netzwerk schneller erledigt. Die Skill ist für wiederholbares IC- und Manager-Level-Sourcing gebaut, wo Rubrik-Kalibrierung ihre Setup-Kosten zurückverdient.
  • Referenz-Checks oder Hintergrundrecherche. Andere Einwilligungsposition. Anderer Workflow.

Setup

  1. Bundle einspielen. Platzieren Sie apps/web/public/artifacts/candidate-sourcing-claude-skill/SKILL.md in Ihrem Claude Code Skills-Verzeichnis (oder Claude.ai Custom Skills).
  2. Rubrik ausfüllen. Kopieren Sie references/1-icp-rubric-template.md in eine Datei pro Rolle in Ihrem eigenen Repository. Ersetzen Sie jeden {Platzhalter}. Die Skill erfasst den SHA-256 des Rubriks in ihrem Audit-Log pro Durchlauf, sodass nachfolgende Bearbeitungen im Retro sichtbar sind.
  3. Quellkanal konfigurieren. Fügen Sie Ihren Juicebox- oder hireEZ-API-Schlüssel zur Konfiguration der Skill hinzu. Für LinkedIn konfigurieren Sie Recruiter-API-Zugangsdaten – die Skill lehnt das Scrapen öffentlicher Profil-URLs ab.
  4. Do-Not-Poach- und Ausschlusslisten erstellen. Eine CSV der Kunden-Domains (Do-Not-Poach) und eine CSV der exclude_list-URLs (kürzlich abgelehnte, in stiller Periode, abgemeldet). Der deterministische Pre-Filter in Schritt 3 der Skill wendet diese an, bevor das LLM einen Kandidaten sieht.
  5. Probelauf auf einer abgeschlossenen Stelle. Führen Sie auf einer Stelle aus, die Sie letztes Quartal manuell besetzt haben. Vergleichen Sie die Top-25 der Skill mit Ihren manuellen Top-25. Stimmen Sie die Rubrik-Anker ab, wenn die Skill anders kalibriert – die Anker, nicht die Suchabfrage, sind üblicherweise falsch.

Was die Skill tatsächlich tut

Sechs Schritte der Reihe nach. Die Reihenfolge ist wichtig: deterministische Filter und Fairness-Pre-Flight kommen vor dem LLM-Ranking, weil ein LLM losgelassen auf einen kontaminierten Pool schnelle, sichere, unbrauchbare Ausgabe produziert.

  1. Rubrik validieren gegen references/2-fairness-checklist.md. Halten, wenn das Rubrik Protected-Class-Proxies enthält. Die Entscheidung, vor dem Abruf statt danach zu scheitern, ist bewusst – ein voreingenommenes Rubrik, das in eine Sourcing-Tool-API geladen wird, hinterlässt einen Logeintrag, der bereits als automatisierte Verarbeitung unter DSGVO Art. 22 gilt.
  2. Suchabfrage aufbauen im nativen Format des Kanals. Synonyme auf 5 pro Dimension begrenzen; abgerufener Pool auf 200 begrenzen. Größere Pools verschlechtern das Ranking, weil der Modellkontext mit wenig relevanten Kandidaten gefüllt wird.
  3. Deterministischer Pre-Filter. exclude_list-Übereinstimmungen, Do-Not-Poach-Unternehmen, Standortfehler und Profile >18 Monate veraltet entfernen. Dies sind überprüfbare Filter; das LLM erlegt ihnen keine erneute Beurteilung auf.
  4. Rubrik-basiertes Ranking. Bewertung 1–5 für Skill, Level, Unternehmens-Muster, Response-Likelihood. Jede Bewertung über 1 zitiert einen verbatim Profilstring. Kein Zitat → Bewertung 1. Die Zitat-Anforderung hält das Modell im Profiltext verankert statt aus Name, Foto oder Schule zu schließen.
  5. Menschliches Review-Gate. shortlist.md und pro-Kandidaten outreach/<id>.md-Dateien schreiben. Stopp. Die Skill definiert keine send-Aktion.
  6. Audit-Log. Eine JSONL-Zeile pro Durchlauf anhängen mit run_id, rubric_sha256, Pool-Größen, Kanal, Modell. Keine PII. Das macht den Durchlauf unter NYC LL 144 oder EU-KI-Gesetz-Befragung verteidigbar.

Das Shortlist-Format und das Pro-Kandidaten-Beleglayout befinden sich in references/3-shortlist-format.md im Bundle. Das Format ist fest, weil nachgelagerte Konsumenten – Recruiter, Hiring Manager, Audit-Reviewer – vorhersehbare Spalten brauchen.

Kostenrealität

Pro Shortlist von 25 aus einem 200-Kandidaten-Pool auf Claude Sonnet 4.5:

  • Abrufkosten — hängt vom Kanal ab. Juicebox PeopleGPT zählt gegen Ihr monatliches Abfragekontingent (Starter-Pläne mit 200 Suchen sind schnell erschöpft, wenn Sie mehrere Rollen pro Woche ausführen). hireEZs Unlocks-per-Month ist dort die bindende Einschränkung. LinkedIn Recruiter API hat eigene Per-Seat-InMail- und Suchkontingente. Nichts davon ändert sich mit der Skill in der Schleife; Sie geben dasselbe Kanalquotient aus, das Sie bei manueller Boolean-Suche ausgegeben hätten.
  • LLM-Tokens — typischerweise 80–120k Input-Tokens (Rubrik + 200 Kandidatenprofil-Auszüge + Skill-Anweisungen) und 8–15k Output-Tokens (Shortlist + 25 Outreach-Entwürfe). Auf Sonnet 4.5 sind das rund $0,50–0,80 pro Shortlist. Der volle Monat für einen Sourcer, der ~80 Shortlists ausführt, landet bei $40–65 in Modellkosten.
  • Recruiter-Zeit — der Gewinn liegt hier, nicht in den Modellkosten. Manuelles Boolean + Scoring + Outreach für 25 Kandidaten sind 2–3 Stunden. Die Shortlist der Skill zu überprüfen und die Entwürfe zu bearbeiten sind 25–40 Minuten, was den Workflow lohnenswert macht.
  • Setup-Zeit — 45 Minuten für Rubrik und Ausschlusslisten, wenn das Rubrik bereits in irgendeiner Form existiert; länger, wenn das Rubrik grundlegend neu ist (wobei Structured Interviewing die Voraussetzung ist, nicht diese Skill).

Erfolgsmetrik

Verfolgen Sie drei Zahlen pro Stelle pro Monat im ATS:

  • Antwortrate auf Outreach — sollte der manuellen Baseline des Recruiters entsprechen oder sie übertreffen. Wenn sie sinkt, sind die Outreach-Entwürfe generisch – üblicherweise ist das Rubrik zu grob, nicht das Modell.
  • Shortlist-zu-Screen-Durchlaufquote — der Anteil der auf der Shortlist stehenden Kandidaten, die der Hiring Manager als screen-würdig erachtet. Sollte ≥70 % bei einer stabilen Stelle betragen. Darunter ist das ICP-Rubrik fehlkalibriert; führen Sie es auf einer abgeschlossenen Stelle aus und stimmen Sie es ab.
  • Zeit von Stellenöffnung bis zum ersten qualifizierten Screen — die Durchsatz-Metrik, die die Skill bewegen soll. Die 3-Stunden-zu-30-Minuten-Reduktion zeigt sich hier, nicht in den Modellausgaben.

Vergleich mit Alternativen

  • vs. Gem AI Sourcing — Gem besitzt den Recruiter-Workflow von Ende zu Ende (Sourcing-UI, Sequenzen, Analysen, ATS-Integration via Ashby und andere). Wählen Sie Gem, wenn Sie ein verwaltetes Produkt möchten und Ihr Team in seiner UI leben wird. Wählen Sie diese Skill, wenn Sie das Rubrik, die Pre-Filter-Logik und das Audit-Log in Ihrem eigenen Repository versioniert haben möchten, mit auswechselbarem Modell.
  • vs. hireEZs eingebautem AI-Ranking — hireEZ AI Match ist gutes Retrieval; die Lücke liegt auf der Rubrik-Ebene. Mit dieser Skill behalten Sie hireEZ als Retrieval-Kanal und bringen Ihr eigenes Rubrik + evidenz-zitiertes Scoring darüber. Wenn hireEZs Defaults Ihrem ICP entsprechen, brauchen Sie diese Skill nicht.
  • vs. manueller Boolean + Tabellen-Scoring — manuell ist richtig für einmalige oder Executive-Suchen, bei denen das Rubrik im Kopf des Recruiters liegt und das Aufschreiben Overhead ist, der sich nicht amortisiert. Die Skill verdient ihre Setup-Kosten bei sich wiederholenden Stellen.
  • vs. selbst gebautem Python-Skript gegen die LinkedIn / Juicebox APIs — gleiche Ranking-Qualität, wenn Sie den Prompt sorgfältig aufbauen, aber Sie bauen auch die Fairness-Checkliste, das Audit-Log und das menschliche Review-Gate selbst. Das Bundle liefert sie.

Wichtige Hinweise

  • Bias-Verstärkung — durch die Fairness-Checkliste in references/2-fairness-checklist.md abgesichert, die den Durchlauf anhält, wenn das Rubrik Protected-Class-Proxies enthält. Das Audit-Log erfasst rubric_sha256 pro Durchlauf, sodass das an einem bestimmten Datum verwendete Rubrik unter EU-KI-Gesetz oder NYC LL 144 reproduzierbar ist.
  • Veraltete LinkedIn / Juicebox-Daten — durch den deterministischen Filter in Schritt 3 abgesichert (Profile >18 Monate veraltet entfernen) und durch die Response-Likelihood-Dimension im Scoring (die Aktualität gewichtet). Cold-Storage-Kandidaten verdrängen keine aktiv suchenden.
  • LinkedIn-ToS-Exponierung — durch die Weigerung gesichert, öffentliche Profil-URLs zu scrapen. Die Skill verwendet die Recruiter API, Juicebox oder hireEZ, die ihre eigene Datenlizenzierung tragen. Wenn linkedin_recruiter ausgewählt ist und die API nicht konfiguriert ist, bricht die Skill mit einem Setup-Fehler ab, statt zurückzufallen.
  • Auto-Send-Drift — durch das menschliche Review-Gate (Schritt 5) und das Fehlen einer send-Aktion in der Skill gesichert. Entwürfe werden in outreach/<id>.md-Dateien für den Recruiter geschrieben, um sie in den ATS / Sourcing-Tool-Outbox einzufügen. KI-verfasst-und-gesendet ohne Review produziert Volumen ohne Qualität und schadet der Candidate Experience.
  • Comp-Transparenz — Outreach-Entwürfe nennen nie eine Zahl; sie referenzieren die Band als „wettbewerbsfähige Spanne, die im Screen mitgeteilt wird”, damit der Recruiter die Quelle der Gehaltsband-Aussagen bleibt (NYC LL 32-A, Colorado, Kalifornien, Washington Gehaltstransparenz-Anforderungen).

Stack

Das Skill-Bundle liegt unter apps/web/public/artifacts/candidate-sourcing-claude-skill/ und enthält:

  • SKILL.md — die Skill-Definition
  • references/1-icp-rubric-template.md — pro Rolle ausfüllen
  • references/2-fairness-checklist.md — Pre-Flight-Prüfungen (nicht bearbeiten, um voreingenommene Rubrika passieren zu lassen)
  • references/3-shortlist-format.md — das wörtliche Ausgabeformat

Tools, die der Workflow voraussetzt: Claude (das Modell), Juicebox oder hireEZ (der Retrieval-Kanal), Ashby (das ATS für Write-Back, sobald der Recruiter einen Kandidaten genehmigt hat). Gem ist die Make-or-Buy-Alternative, wenn Sie das Rubrik und das Audit-Log nicht selbst besitzen möchten.

Files in this artifact

Download all (.zip)