ooligo
claude-skill

Constructeur de loop d'entretien structuré avec Claude

Difficulty
intermédiaire
Setup time
30min
For
recruiter · hiring-manager · talent-acquisition
Recruiting & TA

Stack

Un Claude Skill qui prend une description de poste, le niveau du rôle, les compétences incontournables et le pool d’intervieweurs éligibles avec les points forts calibrés de chaque intervieweur, et produit une conception de loop complète — progression des étapes, rubric par étape avec descriptions d’ancres, questions comportementales par dimension, et tableau d’attribution des intervieweurs avec la justification de chaque choix. Puis s’arrête à un point de contrôle de révision du hiring manager avant que quoi que ce soit ne soit configuré dans l’ATS. Remplace « on verra le loop quand un candidat est en entretien téléphonique » par une passe de conception de 30 minutes qui produit une discipline opérationnelle.

Quand l’utiliser

  • Vous disposez d’une JD approuvée, d’un niveau confirmé et d’une liste de compétences incontournables qui différencient embauche de non-embauche pour ce poste.
  • Vous avez une bibliothèque de rubric d’entretiens structurés avec des descriptions d’ancres par niveau de score par tranche de niveau. Le modèle de compétences dans apps/web/public/artifacts/interview-loop-builder-skill/references/1-competency-library.md montre la forme ; si vous ne pouvez pas le remplir, vous n’avez pas encore de rubric que ce skill peut exploiter.
  • Vous avez un pool d’intervieweurs avec des points forts calibrés enregistrés par compétence par tranche de niveau — voir references/2-interviewer-strengths.md dans le bundle pour la matrice.
  • Un hiring manager révisera le loop avant qu’il ne soit configuré dans Ashby ou Greenhouse. Le skill écrit des fichiers et s’arrête ; il ne pousse pas vers l’ATS.

Quand NE PAS l’utiliser

  • Planification automatique. Ce skill conçoit le loop. Il ne planifie pas les entretiens, ne fait pas correspondre les calendriers et n’envoie pas de liens de réservation côté candidat. C’est Goodtime, Ashby Scheduling ou Greenhouse Scheduling. Coupler conception et planification dans un seul skill couple deux modes d’échec qui devraient échouer indépendamment.
  • Remplacer la conception du rubric avec le hiring manager. Le skill émet des descriptions d’ancres par niveau de score en extrayant depuis la bibliothèque de compétences, mais la bibliothèque elle-même — à quoi ressemble un 5 pour systems-design au niveau IC5 — est la propriété du hiring manager et du responsable de fonction. Si la bibliothèque est vide ou tout-en-modèle, le skill refuse et fait remonter un TODO plutôt qu’inventer des ancres de rubric sur une fonction pour laquelle il n’a pas de signal calibré.
  • Loops génériques basés sur des modèles sans calibration propre au rôle. Si les inputs ne nomment pas le niveau, les compétences incontournables ou le pool d’intervieweurs éligibles, le skill refuse. Un loop en quatre étapes avec des libellés génériques « comportemental », « technique », « system design », « leadership » paraît structuré mais ne l’est pas. Chaque candidat reçoit les mêmes questions quel que soit les priorités du rôle, ce qui annule le point de la structure.
  • Postes en dessous d’un seuil de complexité défini. Un rôle de sous-traitant de deux semaines n’a pas besoin d’un loop en quatre étapes. Le skill avertit et suggère un entretien d’une seule étape si le rôle est un contrat, à l’heure ou d’une durée prévue de moins de 6 mois.
  • Remplacer la formation en entretiens comportementaux. Les questions émises par le skill suivent la forme situation/comportement/résultat, mais les intervieweurs ont encore besoin d’une calibration entraînée pour scorer de manière cohérente. Le skill est l’échafaudage ; la formation est le prérequis.

Configuration

  1. Déposez le bundle. Placez apps/web/public/artifacts/interview-loop-builder-skill/SKILL.md dans votre répertoire de skills Claude Code (ou dans les Skills personnalisés claude.ai). Le skill expose une seule fonction callable : design_loop.
  2. Remplissez la bibliothèque de compétences. Copiez references/1-competency-library.md dans votre repo d’équipe. Remplacez chaque placeholder par vos vraies compétences, définitions, tranches de niveaux couvertes et descriptions d’ancres par niveau de score. Le skill refuse de s’exécuter si la bibliothèque est uniquement un modèle.
  3. Remplissez la matrice de points forts des intervieweurs. Copiez references/2-interviewer-strengths.md. Listez chaque intervieweur éligible, son équipe et les tranches de niveaux sur lesquelles il est calibré pour scorer chaque compétence. La colonne « Dernier entretien » est le déclencheur pour re-calibrer à 6 mois d’inactivité.
  4. Configurez les inputs par poste. Pour un poste donné, transmettez le chemin de la JD, le niveau, un tableau de 3-6 identifiants de compétences et un chemin vers la matrice de points forts des intervieweurs remplie. Le skill émet loop.md et des squelettes de scorecards par étape sous scorecards/.
  5. Test à blanc sur un loop clôturé. Exécutez sur un poste que vous avez conçu manuellement le trimestre dernier. Comparez le mapping des étapes et les attributions d’intervieweurs du skill avec la conception manuelle. S’ils divergent, la bibliothèque de compétences ou la matrice d’intervieweurs est habituellement ce qui nécessite un ajustement, pas le prompt du skill.

Ce que le skill fait réellement

Six étapes, dans l’ordre. L’ordre est important : la validation déterministe et le mapping se produisent avant que le LLM génère des ancres de rubric et des questions, et la passe d’expérience candidat à la fin relit le loop assemblé pour détecter la surcharge qui est invisible lors de l’attribution de chaque étape isolément.

  1. Validation des inputs. Chaque identifiant de compétence existe dans la bibliothèque ; le pool d’intervieweurs compte au moins une personne calibrée par compétence incontournable au niveau du rôle ; le niveau tombe dans les tranches couvertes par la bibliothèque. S’arrête avec des TODOs explicites si une vérification échoue. Concevoir un loop Directeur avec une bibliothèque uniquement IC produit des rubrics gonflés — c’est l’étape qui l’empêche.
  2. Mapping des compétences vers les étapes. L’entretien téléphonique recruteur évalue l’adéquation et les bases (jamais sur-rubric). L’entretien téléphonique HM prend les 1-2 compétences différenciatrices les plus importantes. Le loop on-site répartit le reste à raison d’une par entretien autant que possible. La règle d’une compétence par entretien est un choix tranché — regrouper deux compétences dans un entretien de 60 minutes produit un signal plus superficiel sur les deux, et rend le rubric plus difficile à appliquer sur le moment.
  3. Génération du rubric par étape. Pour chaque étape post-filtrage, extrayez les descriptions d’ancres pour la tranche de niveau du candidat depuis la bibliothèque de compétences. Générez 3-5 questions comportementales par dimension en suivant la forme situation/comportement/résultat, plus une relance suggérée par question. Les questions hypothétiques « que feriez-vous » sont exclues par défaut — elles récompensent la devinette articulée plutôt que l’expérience avérée.
  4. Attribution des intervieweurs avec justification. Pour chaque étape post-filtrage, proposez 1-3 intervieweurs depuis le pool. Faites correspondre par adéquation de calibration (exigence stricte), charge (aucun intervieweur dans plus d’une étape du même loop), et diversité de perspective (au moins un intervieweur extérieur à l’équipe d’embauche quand le pool le permet). Chaque attribution est livrée avec une chaîne de justification explicite.
  5. Passe d’expérience candidat. Relit le loop assemblé. Temps total d’entretien actif au-dessus de 5 heures pour IC ou 7 pour le leadership → signale et suggère un take-home. Plus de 6 intervieweurs distincts → signale la fatigue de loop. Deux étapes sondant la même compétence → signale un signal redondant. Étapes inter-fuseaux horaires sans accommodation → fait remonter un TODO.
  6. Point de contrôle de révision du hiring manager. Écrit loop.md et scorecards/<NN>-<stage-id>.md. S’arrête. Le skill ne définit pas d’action « publier dans l’ATS ». Le HM ouvre le fichier, le modifie et configure le loop dans Ashby ou Greenhouse lui-même.

Le format de sortie littéral et la mise en page du squelette de scorecard se trouvent dans references/3-loop-output-format.md dans le bundle. Le format est fixe car les consommateurs en aval — l’intervieweur lisant la scorecard, le facilitateur de débrief collatant les scores — ont besoin d’une structure prévisible.

Réalité des coûts

Par conception de loop, sur Claude Sonnet 4.5 :

  • Tokens LLM — typiquement 30-60k tokens d’entrée (JD plus bibliothèque de compétences plus matrice d’intervieweurs plus instructions du skill) et 10-20k tokens de sortie (loop plus 3-5 squelettes de scorecard avec ancres et questions). Sur Sonnet 4.5, c’est environ 0,20-0,40 $ par conception de loop. Une fonction recrutant 8 postes par trimestre dépense moins de 5 $ en coût de modèle sur ce skill.
  • Temps du recruteur et du hiring manager — le gain est ici. Une conception de loop manuelle à partir de zéro avec des extractions de rubric calibrées représente 90-120 minutes de temps HM plus recruteur lors de la session de conception, plus 30-60 minutes pour documenter les questions et attributions. Le skill comprime ça en une passe de révision de 30 minutes sur le loop généré. Par poste, c’est environ 90 minutes de temps IC ou manager senior économisées.
  • Temps de configuration — 30 minutes par poste une fois la bibliothèque de compétences et la matrice d’intervieweurs remplies. La bibliothèque et la matrice sont le prérequis — nouvelles, elles nécessitent une session de calibration par tranche de compétences, ce qui est un investissement en entretiens structurés, pas la configuration de ce skill.
  • Bénéfice composé — les loops structurés produisent une meilleure qualité d’embauche que les loops ad-hoc dans chaque étude publiée remontant à vingt ans. Le gain du skill est de faire de « structuré » le défaut plutôt que l’exception en supprimant la charge de conception par poste.

Métriques de succès

Suivez trois chiffres par poste par trimestre, dans l’ATS :

  • Délai de conception du loop — heures de « poste approuvé » à « loop configuré dans l’ATS ». Devrait baisser significativement après que le skill est dans la boucle. Si ce n’est pas le cas, le goulot d’étranglement est la révision du HM, pas la conception — faites remonter le loop plus tôt dans la séquence de lancement du poste.
  • Accord inter-évaluateurs sur le rubric — par dimension de compétence, quelle est la fréquence à laquelle les scores indépendants des intervieweurs tombent dans un point. Devrait atteindre 80 % ou plus sur les compétences calibrées. En dessous, les descriptions d’ancres dans la bibliothèque de compétences sont ce qui doit être ajusté, pas le skill.
  • Qualité d’embauche à 12 mois — la métrique à long terme que le loop est censé faire bouger. Comparez les cohortes embauchées via des loops conçus par le skill vs des loops ad-hoc sur la même famille de postes. Si la cohorte conçue par le skill ne surperforme pas, réexaminez le mapping compétence-vers-étape plutôt qu’abandonner la structure.

Alternatives

  • vs les modèles d’entretiens structurés d’Ashby — Ashby possède le loop configuré, le rendu des scorecards et le débrief dans un seul produit. Choisissez les modèles d’Ashby si vous voulez une UX gérée et que votre équipe vivra dans l’ATS. Choisissez ce skill si vous voulez les ancres du rubric, la matrice de points forts des intervieweurs et le mapping compétence-vers-étape dans votre propre repo, versionnés, avec l’étape de conception remplaçable à mesure que la bibliothèque de compétences évolue. L’output du skill est l’input à la configuration du loop d’Ashby, pas un remplacement.
  • vs les loops basés sur des modèles génériques — chaque ATS livre des modèles par défaut en quatre étapes (« entretien téléphonique, HM screen, technique, on-site panel »). Ils passent pour structurés à première vue mais ne le sont pas. Le même modèle est appliqué à un IC4 Backend et à un Manager CS M2, avec les mêmes questions génériques, quelle que soit la compétence différenciatrice réelle de chaque rôle. Le skill amortit ses 30 minutes de configuration au deuxième poste car la conception est calibrée par poste plutôt qu’universelle.
  • vs la conception de loop DIY du hiring manager — un HM senior peut concevoir un bon loop à partir de zéro en 90-120 minutes. Il tend à ne pas le faire, car sous pression de délai il réutilise le dernier loop qu’il a géré, quelle que soit l’adéquation. Le gain du skill n’est pas « conçoit mieux qu’un HM expérimenté au sommet de sa forme » ; c’est « conçoit aussi bien qu’un HM expérimenté de manière cohérente, sur tous les postes et toutes les semaines ». La cohérence est le bénéfice composé.
  • vs pas de loop structuré du tout — les méta-analyses publiées sur les entretiens structurés placent les entretiens structurés à environ deux fois la validité prédictive des entretiens non structurés pour la performance au travail. Si votre statu quo est non structuré, le skill n’est pas la question — adopter la structure l’est. Le skill est la façon de rendre la structure suffisamment bon marché pour être réellement déployée sur chaque poste.

Points de vigilance

  • Surcharge des intervieweurs par le même intervieweur attribué partout. Protection : l’étape d’attribution dans le skill impose « aucun intervieweur dans plus d’une étape du même loop » comme règle stricte. Le tableau d’attribution fait remonter un intervieweur de secours par étape pour que le recruteur ait un fallback quand le principal est indisponible, plutôt que de réutiliser le principal dans deux étapes.
  • Signal redondant entre les étapes. Protection : la passe d’expérience candidat relit le loop assemblé et signale toute compétence sondée dans plus d’une étape. Le tableau de mapping compétence-vers-étape en tête de l’output du loop rend la redondance visible pour le hiring manager lors de la révision.
  • Expérience candidat négligée. Protection : la passe d’expérience candidat est une étape séparée et nommée dans le skill plutôt qu’une phrase au bas du loop. Elle impose des plafonds de temps total (5 heures IC, 7 heures leadership), des plafonds d’intervieweurs distincts (6), des suggestions de take-home pour les compétences qui gonflent le loop, et des TODOs d’accommodation de fuseau horaire. Sans cette passe, « un entretien de 30 minutes de plus » s’accumule invisiblement.
  • Dérive de calibration dans un seul loop. Protection : le bloc de rubric émis par étape inclut des descriptions d’ancres par niveau de score extraites de la bibliothèque de compétences, pas un texte libre « notez de 1 à 5 ». Les ancres sont ce qui maintient la calibration quand le même candidat est scoré par quatre intervieweurs différents dans le même loop. Rubric vague → scores vagues → débrief qui re-débat chaque dimension par anecdote.
  • Le hiring manager valide la conception à la légère. Protection : le skill s’arrête au point de contrôle de révision et écrit dans des fichiers. Il n’y a pas d’action « publier dans l’ATS ». Le HM doit ouvrir le fichier et le modifier avant de configurer le loop — cette friction est intentionnelle. Si les HMs commencent à signer sans lire, le contenu du loop dérive loin des priorités du poste et le skill cesse d’amortir son temps économisé.
  • Calibration obsolète des intervieweurs. Protection : la matrice d’intervieweurs a une colonne « Dernier entretien ». Les cellules de plus de 6 mois déclenchent une re-calibration avant que l’intervieweur ne soit à nouveau attribué. Quand l’intelligence d’entretien révèle des questions qui ne produisent pas de signal utile, mettez à jour les ancres de la bibliothèque de compétences et le skill émet les nouvelles ancres à la prochaine exécution.

Stack

Le bundle de skill se trouve dans apps/web/public/artifacts/interview-loop-builder-skill/ et contient :

  • SKILL.md — la définition du skill avec le frontmatter, les règles d’invocation, les inputs, la méthode et les points de vigilance associés aux gardes
  • references/1-competency-library.md — la taxonomie de compétences avec des descriptions d’ancres par niveau de score par tranche de niveau ; à remplir par fonction avant l’exécution
  • references/2-interviewer-strengths.md — la matrice du pool d’intervieweurs éligibles avec une couverture calibrée par compétence ; à remplir par équipe avant l’exécution
  • references/3-loop-output-format.md — le format Markdown littéral émis par le skill, y compris la mise en page du squelette de scorecard

Outils utilisés par le workflow : Claude (le modèle), Ashby ou Greenhouse (l’ATS où le HM configure le loop conçu), BrightHire ou Metaview (intelligence d’entretien dont le signal alimente le réglage des ancres de la bibliothèque de compétences). S’associe directement avec le rédacteur de JD en amont et le résumé de débrief d’entretien en aval.

Files in this artifact

Download all (.zip)