ooligo
prompt

Banque de questions d'entretien — pack de prompts tagués par compétence

Difficulty
débutant
Setup time
15min
For
recruiter · hiring-manager · interviewer
Recruiting & TA

Stack

Un pack de prompts structurés pour Claude qui transforment un rubric de poste en un ensemble gradué de questions d’entretien : comportementales (sonder le comportement passé dans des conditions nommées), situationnelles (réponse à un scénario hypothétique), analyse approfondie technique (creuser une compétence déclarée), et questions inverses (ce à quoi s’attendre du candidat, avec ce que les réponses signalent). Chaque question est taguée avec la dimension du rubric qu’elle sonde, l’ancre qu’elle différencie, et la relance à poser si la réponse est trop préparée. Remplace l’entretien « on improvise » par une bibliothèque de questions que le panel ouvre vraiment avant l’appel.

Quand l’utiliser

  • Le poste dispose d’un rubric écrit (entretiens structurés comme prérequis).
  • Le panel d’entretien inclut des intervieweurs qui n’interviewent pas régulièrement — ingénieurs, hiring managers, IC leads — et qui ont besoin d’entrer avec des questions préparées calibrées sur le rubric.
  • Vous voulez de la cohérence entre les panelistes. Chaque paneliste pose des variantes des mêmes questions d’ancre, pour que le débrief compare des notes sur les mêmes dimensions.
  • Vous calibrez un intervieweur junior. Les annotations « relance si réponse préparée » du pack rendent le signal plus profond visible.

Quand NE PAS l’utiliser

  • Entretiens culturels non structurés où l’objectif est le rapport, pas le signal. Conversation différente. Le pack est pour les tours de collecte de signal.
  • Entretiens de code en direct. Artifact différent (format code-et-dialogue). Le workflow d’évaluation de take-home gère l’évaluation d’artifacts ; le code en direct est son propre workflow.
  • Rubrics qui n’ont pas passé une vérification de conformité — les prompts du pack produiront des questions qui sondent les dimensions du rubric, y compris les mauvaises. Faites d’abord passer le rubric par le cadre de l’auditeur de slate diversifiée ou le pré-vol de conformité du constructeur de recherche booléenne.
  • Questions que vous voulez verrouiller pour l’année. Le pack se régénère par poste et par rubric. Si votre entreprise a besoin de questions figées et révisées pour la conformité légale (certains secteurs l’exigent), utilisez le pack comme point de départ et verrouillez l’output, pas les prompts eux-mêmes.

Configuration

  1. Déposez le bundle. Placez apps/web/public/artifacts/interview-question-bank-prompt-pack/interview-question-bank-prompt-pack.md quelque part où vos intervieweurs peuvent le lire (Notion, le wiki d’équipe, les fichiers de connaissances d’un projet Claude interne).
  2. Rédigez le rubric du poste. Le même rubric qu’utilisent les workflows d’entretien téléphonique et de référence. Sans lui, les prompts n’ont rien à sonder.
  3. Créez un projet Claude par poste. Déposez le rubric comme connaissance du projet. Sauvegardez chaque prompt du pack comme prompt sauvegardé dans le projet.
  4. Générez les questions. Exécutez chaque prompt contre le rubric. Copiez les questions dans le document de préparation à l’entretien du panel. Taguez chaque question avec le paneliste qui la posera.
  5. Révisez pour le ton et l’adéquation. Les prompts produisent des questions compétentes. Le hiring manager les modifie pour la voix de l’entreprise et les spécificités du poste.

Ce que le pack contient

Douze prompts, en trois niveaux.

Niveau 1 — Comportemental (sonder le comportement passé dans des conditions nommées)

Les questions comportementales sont les piliers des entretiens structurés. Le pack génère des questions dans la forme STAR (Situation, Tâche, Action, Résultat) par dimension de rubric, avec une relance pour chacune qui creuse au-delà de la réponse préparée.

  • B1. Produire 3 questions comportementales par dimension de rubric. Chacune taguée avec la dimension et l’ancre du rubric (1-5) qu’elle discrimine.
  • B2. Pour chaque question comportementale, produire une relance pour le cas où la réponse est trop préparée (le paneliste peut dire que le candidat a préparé exactement cette histoire). La relance demande un exemple différent, un contrefactuel ou une étape que le candidat a sautée.
  • B3. Produire 3 questions comportementales qui sondent le négatif — quand le candidat a échoué sur la dimension. Réduire préventivement la non-réponse de type « je suis perfectionniste ».

Niveau 2 — Situationnel (réponse à un scénario hypothétique)

Les questions situationnelles sondent comment le candidat gérerait un scénario. Moins fiables que les comportementales mais utiles pour les questions de périmètre senior où le candidat n’a peut-être pas de situation directement comparable passée.

  • S1. Produire 2 scénarios situationnels par dimension de rubric au niveau du rôle. Chaque scénario est calibré au niveau (problèmes de périmètre IC Senior, pas Staff ; problèmes de périmètre Manager, pas Directeur).
  • S2. Pour chaque scénario, lister les dimensions de réponse que le paneliste doit écouter (critères de décision spécifiques, ce qu’ils demandent avant de décider, ce qu’ils évitent).

Niveau 3 — Analyse approfondie technique / craft

Pour les postes où il y a un craft (ingénierie, design, méthodologie de vente), ce niveau produit des questions qui creusent dans la compétence déclarée du candidat.

  • T1. Étant donné les compétences must_have du rubric, produire 5 questions d’analyse approfondie par compétence. Chacune étiquetée « superficielle » (vérification de base que le candidat a la compétence) ou « profonde » (sonder les limites de la compétence).
  • T2. Pour chaque question d’analyse approfondie, lister 3 relances que le paneliste pose si la première réponse du candidat est correcte mais en surface.
  • T3. Produire 2 questions qui font remonter une lacune dans la compétence plutôt que de confirmer sa présence. (« Dites-moi un moment où vous deviez utiliser X mais n’aviez pas Y. » Sonde si le candidat remarque la limite.)

Niveau 4 — Questions inverses (ce que le candidat pose en retour)

Les candidats forts posent des questions substantielles. Les candidats faibles posent « c’est quoi la culture ? ». Ce niveau aide le paneliste à lire les questions du candidat.

  • R1. Produire une liste de 10 questions substantielles qu’un candidat fort pourrait poser, groupées par ce que chaque question signale (le candidat pense à X, préfère Y, cherche Z).
  • R2. Produire une liste de 10 questions faibles / génériques et ce que chaque question signale (le candidat n’a pas fait de recherche, est anxieux sur les bases, pêche une réponse spécifique).

Réalité des coûts

Par génération de questions pour un poste, sur Claude Sonnet 4.6 :

  • Tokens LLM — typiquement 5-10k d’entrée (rubric + prompt + instructions du skill) et 3-6k de sortie (la bibliothèque de questions générée) par invocation de prompt. Total par poste : environ 0,30-0,60 $ si tous les 12 prompts sont exécutés.
  • Temps des intervieweurs — le gain. Rédiger manuellement une bibliothèque de questions comportementales par poste prend 4-8 heures ; le pack livre une bibliothèque de départ en 30 minutes de prompting et édition.
  • Temps de configuration — 15 minutes pour configurer le projet Claude par poste. La configuration initiale du pack pour l’entreprise (sauvegarde des prompts, intégration avec le wiki d’équipe) est une tâche ponctuelle de 30-60 minutes.

Métriques de succès

Suivez trois éléments, mensuellement :

  • Recoupement de questions entre panelistes — part des questions posées par ≥2 panelistes dans le même loop. Devrait être ≥40 % sur un pack calibré (les dimensions du rubric SONT le fil conducteur) ; en dessous de 25 % signifie que les panelistes improvisent.
  • Durée du débrief — temps réel de « dernier entretien terminé » à « décision enregistrée ». Devrait baisser d’environ 30 % car les debriefs sont ancrés sur les mêmes dimensions.
  • Confiance des panelistes dans leurs notes — qualitatif ; demandez aux panelistes « êtes-vous entré avec une bibliothèque de questions ? » La réponse honnête dans la plupart des entreprises est « non, on a improvisé » — la métrique de succès du pack est de faire passer ça à « oui, et ça a aidé ».

Alternatives

  • vs bibliothèque de questions rédigée manuellement. La rédaction manuelle est le bon choix pour une petite équipe qui itère rapidement où le rubric et les questions co-évoluent dans la tête des fondateurs. Le pack amortit son coût de configuration sur les équipes qui recrutent avec plusieurs panelistes par loop.
  • vs banques de questions natives de l’ATS (Greenhouse Interview Plans, Ashby Interview Templates). Le natif ATS est le bon choix si votre équipe vit dans l’ATS et veut des questions surfacées en contexte. Choisissez le pack si vous voulez la bibliothèque de questions versionnée dans votre propre repo et régénérable à mesure que le rubric évolue.
  • vs prompt ChatGPT générique « donne-moi des questions d’entretien pour ingénieur senior ». Le chat générique retourne des questions génériques. Le pack est structurellement différent : chaque question est taguée avec une dimension de rubric, une ancre et une relance.
  • vs aucune préparation du tout. Mode d’échec prévisible : les panelistes posent des questions différentes, le débrief compare des pommes et des oranges, la décision dérive vers celui qui a parlé en premier.

Points de vigilance

  • Héritage de biais depuis le rubric. Protection : le pack génère des questions DEPUIS le rubric. Si le rubric a des dimensions biaisées (« culture fit » sans ancres, scoring de prestige de l’école), les questions sondent le biais. Auditez le rubric en amont — voir l’auditeur de slate diversifiée.
  • Préparation des questions. Protection : le prompt B2 du pack produit explicitement des relances pour les réponses préparées. La relance demande un exemple différent ou un contrefactuel ; elle ne laisse pas le candidat rejouer le script préparé.
  • Questions génériques qui passent à travers. Protection : chaque question générée doit référencer la dimension du rubric et l’ancre qu’elle discrimine. Les questions qui ne référencent pas une ancre sont signalées dans l’output du prompt pour que le paneliste les supprime ou les réécrive.
  • Difficulté de questions incohérente entre panelistes. Protection : les prompts sont tagués avec l’ancre du rubric (1-5) pour laquelle ils sont calibrés. Deux panelistes posant des questions différentes sur la même dimension sont toujours calibrés sur les mêmes ancres.
  • Explosion de longueur. Protection : les prompts du pack plafonnent l’output à « 3 par dimension, 12 dimensions max » — la bibliothèque d’un poste typique atterrit à ~50-80 questions, pas 500. Le hiring manager choisit 8-15 à réellement utiliser par slot de panel.
  • Questions obsolètes sur des rubrics stagnants. Protection : relancez le pack quand le rubric change (le pack est rapide — 30 minutes, c’est bon marché). Les vieilles bibliothèques de questions liées depuis les documents de préparation à l’entretien deviennent silencieusement obsolètes autrement.

Stack

Le bundle d’artifact se trouve dans apps/web/public/artifacts/interview-question-bank-prompt-pack/ et contient :

  • interview-question-bank-prompt-pack.md — les douze prompts, prêts à coller dans Claude

Outils utilisés par le workflow : Claude (le modèle). L’output s’insère dans Notion, le wiki d’équipe ou un modèle de plan d’entretien ATS.

Concepts liés : entretiens structurés, entretiens comportementaux, conception de loop d’entretien, qualité d’embauche.

Files in this artifact

Download all (.zip)