ooligo
claude-skill

Constructeur de recherches booléennes et X-ray avec Claude

Difficulty
débutant
Setup time
20min
For
sourcer · recruiter · talent-acquisition
Recruiting & TA

Stack

Un Claude Skill qui transforme un role intake structuré (incontournables, souhaitables, anti-signaux, politique de localisation) en trois artefacts de recherche calibrés : une chaîne booléenne hireEZ, une requête Google X-ray pour LinkedIn / GitHub / Stack Overflow, et un prompt Juicebox PeopleGPT avec des filtres structurés. Chaque requête est nommée avec la fourchette de taille de pool attendue et les dimensions qu’elle capture ou non, pour que le sourcer choisisse le canal adapté au poste plutôt que de lancer la même requête sur trois outils et d’obtenir trois pools de formes différentes.

Quand utiliser

  • Vous ouvrez un nouveau poste et avez besoin de seeder trois canaux de sourcing en parallèle sans rédiger trois requêtes différentes à la main.
  • Vous affinez une recherche à faible rendement — la requête actuelle renvoie 4 000 résultats ou 12 résultats, ni l’un ni l’autre n’étant utile — et avez besoin de tester si le problème vient de la couverture des synonymes, des clauses NOT ou du filtre de localisation.
  • Vous calibrez un sourcer junior. La sortie structurée du skill rend visible quel signal fait le travail d’élimination dans chaque requête, ce que la formation booléenne saute habituellement.

Quand NE PAS utiliser

  • Remplacer le jugement du sourcer sur ce qui constitue un signal. Le skill transforme la rubrique en requête ; il ne rédige pas la rubrique. Si le role intake fait deux bullet points, les requêtes seront trois déclinaisons de deux bullet points et ne renverront pas de meilleurs candidats que le hasard.
  • Scraper LinkedIn publiquement à grande échelle. La requête X-ray est pour un usage occasionnel sur la surface indexée publiquement, avec un rate limiting dans les mains du recruteur. Le skill avertit et refuse de paginer en masse. Le sourcing de production via des URL LinkedIn publiques est une violation des CGU indépendamment du règlement hiQ.
  • Construction de slate de diversité. Les requêtes booléennes peuvent encoder des biais via des termes proxy (nom de l’école, affiliation à un groupe). Utilisez l’auditeur de slate de diversité sur le pool de candidats résultant, pas sur la requête de recherche, pour détecter cela.
  • Recherches de cadres confidentielles. Les requêtes laissant des traces dans les historiques de recherche partagés ou les caches du navigateur sont un risque d’exposition. Effectuez celles-là manuellement avec l’historique de recherche désactivé.

Configuration

  1. Déposez le bundle. Placez apps/web/public/artifacts/boolean-search-builder-claude-skill/SKILL.md dans votre répertoire de skills Claude Code ou vos Skills personnalisés claude.ai.
  2. Rédigez le role intake. Copiez references/1-role-intake-template.md, remplacez chaque placeholder. L’intake distingue les incontournables (binaires, utilisés comme AND), les souhaitables (additifs, utilisés pour classer), les anti-signaux (utilisés comme NOT), et la politique de localisation (analysée dans des filtres structurés).
  3. Configurez la profondeur des synonymes. La valeur par défaut du skill est 5 synonymes par dimension. Montez à 7-8 pour un poste de niche où le label en langage naturel est ambigu (ex. « platform engineer » signifie des choses différentes selon les entreprises). Plafonnez à 10 — au-delà, les requêtes renvoient des pools de faux positifs.
  4. Lancez d’abord sur un poste clos. Générez des requêtes pour un poste que vous avez sourcé le trimestre dernier. Comparez les ensembles de synonymes choisis par le skill aux synonymes que vous avez réellement utilisés. Affinez le role intake si le skill manque des titres adjacents évidents ou en inclut d’implausibles.

Ce que le skill fait réellement

Cinq étapes. L’ordre compte : le pré-vol de rubrique s’exécute en premier parce qu’une rubrique contenant des proxies de classe protégée produira des requêtes qui les encodent.

  1. Valider l’intake par rapport à references/2-rubric-fairness-checklist.md. S’arrête si le role intake inclut le scoring de prestige scolaire, le filtrage par pattern de nom, les pénalités de lacune d’emploi, ou le « cultural fit » sans ancres comportementales. La vérification s’exécute au moment de l’analyse de l’intake, pas au moment de la génération de la requête, pour qu’une rubrique violant les règles n’atteigne jamais l’étape d’expansion des synonymes.
  2. Expandre les synonymes par dimension. Pour chaque incontournable, générer 5-10 synonymes ancrés dans l’usage du secteur (titres, noms de frameworks, certifications). Citer le raisonnement par synonyme pour que le sourcer puisse éliminer les implausibles avant que la requête ne soit construite. Les synonymes ne sont pas inventés ; si le modèle ne peut pas ancrer un synonyme dans un usage nommé, il est omis.
  3. Construire trois requêtes en parallèle. hireEZ Boolean — regroupement AND/OR/NOT explicite avec parenthèses, plafond de 5 synonymes, localisation analysée dans le filtre structuré de hireEZ plutôt qu’en texte libre. Google X-raysite:linkedin.com/in ou site:github.com avec guillemets sur les titres et un filtre - pour les anti-signaux. Juicebox PeopleGPT — prompt en langage naturel avec filtres structurés pour le niveau et la localisation. Chaque requête cible les points forts du canal ; le même poste n’est pas décrit de façon identique dans les trois.
  4. Estimer la fourchette de taille de pool. Pour chaque requête, renvoyer une fourchette de taille de pool attendue (ex. « 200-800 résultats sur hireEZ pour cette géographie ») avec les hypothèses nommées. La fourchette est calibrée par rapport au nombre de synonymes et au filtre de localisation ; les sourcers peuvent resserrer ou élargir selon la fourchette plutôt que de lancer la requête et d’être surpris.
  5. Faire remonter les lacunes de couverture dimensionnelle. Chaque requête est annotée avec ce qu’elle ne capte pas — généralement la propension à répondre (pas de filtre de récence), le niveau (le booléen ne peut pas facilement encoder « périmètre IC Senior »), ou les signaux comportementaux (aucune expression booléenne ne capture « a piloté une migration »). La sortie rend la lacune visible pour que le sourcer planifie l’étape suivante (classement de rubrique sur le pool renvoyé, ou une requête de suivi pour la dimension manquante).

Réalité des coûts

Par role-intake-vers-trois-requêtes, sur Claude Sonnet 4.6 :

  • Tokens LLM — typiquement 4-7 000 tokens d’entrée (intake + instructions du skill + exemples) et 2-3 000 tokens de sortie (trois requêtes + raisonnement par synonyme + estimation de taille de pool). Aux tarifs liste de Sonnet 4.6, environ 0,04-0,07 USD par poste. Un sourcer gérant 30 postes par trimestre dépense 1-2 USD en coût de modèle.
  • Coût du canal — dépend de ce que vous faites avec les requêtes. Les lancer consomme le quota de canal que vous auriez de toute façon dépensé. Le skill lui-même ne s’exécute contre aucune API de sourcing.
  • Temps du sourcer — c’est là que se fait le gain. Rédiger trois requêtes calibrées à la main prend 30-60 minutes par poste ; le skill prend 5-10 minutes y compris la lecture du raisonnement des synonymes et l’élimination des termes implausibles. Le plus grand gain de temps est sur l’affinage des recherches à faible rendement, où l’estimation de taille de pool du skill rend la boucle de diagnostic visible.
  • Temps de configuration — 20 minutes une seule fois. Le modèle de role intake est l’artefact structurant ; les équipes qui rédigent déjà des intakes structurés adoptent le skill en un cycle d’ouverture de poste.

Métrique de succès

Suivez deux chiffres par poste sourcé :

  • Rendement au premier passage — part des candidats du pool interrogé qui passent l’étape de classement de rubrique (dans le processus du sourcer ou via le skill de sourcing de candidats). Devrait se situer à 25-50 % pour une requête calibrée ; en dessous de 15 % signifie que l’expansion des synonymes est trop large, au-dessus de 60 % signifie trop étroite.
  • Précision de l’estimation de taille de pool — taille réelle du pool renvoyée par le canal vs estimation du skill. Devrait se situer dans ±50 % de la fourchette sur une géographie bien connue. Un écart plus large signifie que le nombre de synonymes est mauvais pour la spécificité du poste.

Par rapport aux alternatives

  • vs AI Match de hireEZ (suggestion de requête intégrée) — les suggestions de hireEZ sont bonnes et l’UX in-product est plus rapide que de copier-coller depuis un Skill. Choisissez AI Match si vous vivez dans hireEZ. Choisissez le Skill si vous avez besoin de requêtes calibrées pour plusieurs canaux (pour que le même poste frappe hireEZ, Juicebox et X-ray sur des critères cohérents), ou si vous voulez le raisonnement des synonymes visible pour former un sourcer junior.
  • vs ChatGPT-style « écris-moi une requête booléenne » — le chat générique renvoie une seule chaîne booléenne sans raisonnement par synonyme, sans estimation de taille de pool, sans adaptation par canal, et sans pré-vol d’équité. Le Skill est structurellement différent : il force les dimensions dans des champs séparés, refuse les rubriques biaisées, et fait remonter la lacune de couverture.
  • vs modèles de cheat-sheet booléens — les modèles fonctionnent pour les 80 % de postes qui correspondent au modèle, et produisent des requêtes-poubelles de 4 000 résultats sur les 20 % de postes où les hypothèses du modèle sont fausses (stack de niche, périmètre IC/manager hybride, industrie réglementée). Le Skill est le diagnostic pour ces cas limites.
  • vs rédaction manuelle des requêtes — la rédaction manuelle est le bon choix pour les postes avec une rubrique stable et répétable où les heuristiques du sourcer encodent déjà les synonymes. Le Skill rentabilise son coût de configuration sur les postes nouveaux ou sur l’affinage des recherches à faible rendement.

Points de vigilance

  • Encodage de biais via des termes proxy. Garde : le pré-vol d’équité à l’étape 1 s’arrête si le role intake nomme des proxies de classe protégée. Le prestige scolaire en particulier : ne listez pas d’écoles spécifiques comme must_have ; listez le signal de profondeur technique que ces écoles tendent à corréler, et laissez l’expansion des synonymes trouver des diplômés d’écoles non-cibles qui ont la profondeur.
  • Exposition aux CGU LinkedIn sur X-ray. Garde : la sortie de requête X-ray est annotée d’un avertissement « usage manuel uniquement » et d’un maximum recommandé de 50 pages fetched par requête avant de passer à l’API Recruiter ou à Juicebox. Le Skill ne génère pas de scripts de scraping.
  • Hallucination de synonymes. Garde : chaque synonyme dans la sortie cite le raisonnement source (« couramment utilisé chez Stripe / Plaid / les fintechs », « framework introduit en 2022, le nom varie »). Les synonymes sans raisonnement ancré sont supprimés avant que la requête ne soit construite. Si le sourcer voit un synonyme cité qui ne correspond pas à l’usage réel, c’est le signal d’affiner le role intake.
  • Dérive de l’estimation de taille de pool. Garde : l’estimation est une fourchette, pas un chiffre, et est annotée avec la géographie et le nombre de synonymes qu’elle suppose. Si les résultats réels divergent de plus de 2× de la fourchette, consignez l’écart et réaffinez ; n’agissez pas sur l’estimation comme si c’était une mesure.
  • Synonymes périmés dans des stacks en rapide évolution. Garde : les sources de synonymes du skill incluent une vérification « last verified ». Pour les postes très récents (ex. postes d’infrastructure AI où les titres ont changé en 2025-2026), le skill marque les synonymes comme « usage post-2024 ; vérifiez dans le canal » plutôt que de les affirmer.

Stack

Le bundle du skill se trouve dans apps/web/public/artifacts/boolean-search-builder-claude-skill/ et contient :

  • SKILL.md — la définition du skill (quand invoquer, inputs, méthode, format de sortie, points de vigilance)
  • references/1-role-intake-template.md — modèle remplissable par poste
  • references/2-rubric-fairness-checklist.md — vérifications pré-vol (ne modifiez pas pour faire passer des intakes biaisés)
  • references/3-channel-query-formats.md — notes de syntaxe par canal (hireEZ, X-ray, Juicebox)

Outils que le workflow suppose que vous utilisez déjà : Claude (le modèle), hireEZ et Juicebox (les canaux de récupération). Pour classer le pool renvoyé, voir le skill de sourcing de candidats.

Concepts connexes : AI sourcing, sourcing de candidats passifs, métriques d’entonnoir de recrutement.

Files in this artifact

Download all (.zip)