ooligo
prompt

Banco de perguntas de entrevista — prompt pack com tags de competência

Dificuldade
iniciante
Tempo de setup
15min
Para
recruiter · hiring-manager · interviewer
Recrutamento e TA

Stack

Um pack de prompts estruturados para Claude que transforma um rubric de vaga em um conjunto em camadas de perguntas de entrevista: comportamental (sondar comportamento passado sob condições nomeadas), situacional (resposta a uma hipótese), technical-deep-dive (aprofundar em uma competência declarada) e perguntas inversas (o que esperar do candidato, com o que as respostas sinalizam). Cada pergunta é tagueada com a dimensão do rubric que sonda, a âncora que diferencia e o acompanhamento a fazer se a resposta for muito ensaiada. Substitui a entrevista “vamos improvisar” por uma biblioteca de perguntas que o painel realmente abre antes da chamada.

Quando usar

  • A vaga tem um rubric escrito (pré-requisito de structured interviewing).
  • O painel de entrevistas inclui entrevistadores que não realizam entrevistas regularmente — engenheiros, gestores de contratação, IC leads — e precisam entrar com perguntas preparadas calibradas para o rubric.
  • Você quer consistência entre os entrevistadores do painel. Cada panelista faz variantes das mesmas perguntas âncora, para que o debrief compare notas nas mesmas dimensões.
  • Você está calibrando um entrevistador júnior. As anotações “acompanhamento se ensaiado” do pack tornam o sinal mais profundo visível.

Quando NÃO usar

  • Entrevistas culturais não estruturadas onde o objetivo é rapport, não sinal. Conversa diferente. O pack é para rodadas de coleta de sinal.
  • Entrevistas de live coding. Artefato diferente (formato de código-e-fala). O workflow de avaliação de take-home lida com a avaliação de artefatos; live-coding é seu próprio workflow.
  • Rubrics que não passaram por uma verificação de fairness — os prompts do pack produzirão perguntas que sondam as dimensões do rubric, incluindo as problemáticas. Execute o rubric pelo enquadramento do diversity slate auditor ou o pre-flight de fairness do Boolean search builder primeiro.
  • Perguntas que você quer bloquear por um ano. O pack re-gera por vaga por rubric. Se a sua empresa precisa de perguntas congeladas e revisadas para conformidade legal (algumas indústrias precisam), use o pack como ponto de partida e bloqueie o output, não os prompts em si.

Configuração

  1. Coloque o bundle. Coloque apps/web/public/artifacts/interview-question-bank-prompt-pack/interview-question-bank-prompt-pack.md em algum lugar que seus entrevistadores consigam ler (Notion, o wiki da equipe, os arquivos de conhecimento de um projeto interno do Claude).
  2. Crie o rubric da vaga. O mesmo rubric que os workflows de triagem e referência usam. Sem ele, os prompts não têm nada para sondar.
  3. Crie um projeto Claude por vaga. Coloque o rubric como conhecimento do projeto. Salve cada prompt do pack como um prompt salvo dentro do projeto.
  4. Gere as perguntas. Execute cada prompt contra o rubric. Copie as perguntas para o documento de prep de entrevista do painel. Tague cada pergunta com o panelista que vai fazê-la.
  5. Revise por tom e adequação. Os prompts produzem perguntas competentes. O gestor de contratação as edita para a voz da empresa e as especificidades da vaga.

O que o pack contém

Doze prompts, em três camadas.

Camada 1 — Comportamental (sondar comportamento passado sob condições nomeadas)

As perguntas comportamentais são os cavalos de batalha das entrevistas estruturadas. O pack gera perguntas no formato STAR (Situação, Tarefa, Ação, Resultado) por dimensão do rubric, com um acompanhamento para cada que aprofunda além da resposta ensaiada.

  • B1. Produza 3 perguntas comportamentais por dimensão do rubric. Cada uma tagueada com a dimensão e a âncora do rubric (1-5) que discrimina entre elas.
  • B2. Para cada pergunta comportamental, produza um drill-down para o caso em que a resposta é muito ensaiada (o panelista consegue perceber que o candidato preparou exatamente essa história). O drill-down pede um exemplo diferente, um contrafactual ou um passo que o candidato pulou.
  • B3. Produza 3 perguntas comportamentais que sondem o negativo — quando o candidato falhou na dimensão. Antecipe o tipo de não-resposta “sou perfeccionista”.

Camada 2 — Situacional (resposta a uma hipótese)

As perguntas situacionais sondam como o candidato lidaria com um cenário. Menos confiáveis do que as comportamentais, mas úteis para perguntas de escopo sênior onde o candidato pode não ter uma situação passada diretamente comparável.

  • S1. Produza 2 cenários situacionais por dimensão do rubric no nível da vaga. Cada cenário é calibrado para o nível (problemas de escopo de IC Sênior, não de escopo de Staff; problemas de escopo de Gestor, não de escopo de Diretor).
  • S2. Para cada cenário, liste as dimensões de resposta que o panelista deve ouvir (critérios de decisão específicos, o que eles perguntam antes de decidir, o que evitam).

Camada 3 — Technical / craft deep-dive

Para vagas onde há um craft (engenharia, design, metodologia de vendas), esta camada produz perguntas que aprofundam na competência declarada do candidato.

  • T1. Dado as habilidades must_have do rubric, produza 5 perguntas de deep-dive por habilidade. Cada uma rotulada como “rasa” (verifica se o candidato tem a habilidade) ou “profunda” (sonda os limites da habilidade).
  • T2. Para cada pergunta de deep-dive, liste 3 acompanhamentos que o panelista faz se a primeira resposta do candidato estiver correta mas for de nível superficial.
  • T3. Produza 2 perguntas que surfaceiam uma lacuna na habilidade em vez de confirmar sua presença. (“Me fale sobre uma vez que você precisou usar X mas não tinha Y.” Sonda se o candidato nota o limite.)

Camada 4 — Perguntas inversas (o que o candidato pergunta de volta)

Candidatos fortes fazem perguntas substantivas. Candidatos fracos perguntam “como é a cultura?” Esta camada ajuda o panelista a ler as perguntas do candidato.

  • R1. Produza uma lista de 10 perguntas substantivas que um candidato forte pode fazer, agrupadas pelo que cada pergunta sinaliza (o candidato está pensando sobre X, prefere Y, está procurando Z).
  • R2. Produza uma lista de 10 perguntas fracas / genéricas e o que cada uma sinaliza (o candidato não pesquisou, está ansioso com básicos, está pescando uma resposta específica).

Realidade de custos

Por geração de perguntas de uma vaga, com Claude Sonnet 4.6:

  • Tokens LLM — tipicamente 5-10k de input (rubric + prompt + instruções da skill) e 3-6k de output (a biblioteca de perguntas gerada) por invocação de prompt. Total por vaga: aproximadamente US$0,30-0,60 se executar todos os 12 prompts.
  • Tempo do entrevistador — a vitória. Criar uma biblioteca de perguntas comportamentais por vaga à mão leva 4-8 horas; o pack entrega uma biblioteca inicial em 30 minutos de prompt-e-edição.
  • Tempo de configuração — 15 minutos para configurar o projeto Claude por vaga. A configuração por empresa do pack (salvar prompts, integrar com wiki da equipe) é uma tarefa única de 30-60 minutos.

Métrica de sucesso

Acompanhe três coisas, mensalmente:

  • Sobreposição de perguntas entre panelistas — share de perguntas feitas por ≥2 panelistas no mesmo loop. Deve ser ≥40% em um pack calibrado (as dimensões do rubric SÃO o fio condutor); abaixo de 25% significa que os panelistas estão improvisando.
  • Tempo de debrief — tempo de relógio do “última entrevista termina” até “decisão registrada.” Deve cair ~30% porque os debriefs são ancorados nas mesmas dimensões.
  • Confiança do panelista nas suas notas — qualitativo; pergunte aos panelistas “você entrou com uma biblioteca de perguntas?” A resposta honesta na maioria das empresas é “não, improvisamos” — a métrica de sucesso do pack é mover isso para “sim, e ajudou.”

vs alternativas

  • vs biblioteca de perguntas criada à mão. Criação à mão é a escolha certa para uma equipe pequena em rápida iteração onde o rubric e as perguntas co-evoluem nas cabeças dos fundadores. O pack ganha seu custo de configuração em equipes que contratam com vários panelistas por loop.
  • vs bancos de perguntas nativos do ATS (Greenhouse Interview Plans, Ashby Interview Templates). Nativo do ATS é a escolha certa se sua equipe vive no ATS e quer perguntas surfaceadas no contexto. Escolha o pack se quiser a biblioteca de perguntas com controle de versão no seu próprio repo e re-gerável conforme o rubric evolui.
  • vs ChatGPT-style “me dê perguntas de entrevista para engenheiro sênior.” O chat genérico retorna perguntas genéricas. O pack é estruturalmente diferente: cada pergunta é tagueada com uma dimensão do rubric, uma âncora e um acompanhamento.
  • vs nenhuma preparação. Modo de falha previsível: panelistas fazem perguntas diferentes, o debrief compara maçãs com laranjas, a decisão deriva para quem falou primeiro.

Pontos de atenção

  • Herança de viés do rubric. Proteção: o pack gera perguntas A PARTIR do rubric. Se o rubric tem dimensões enviesadas (“culture fit” sem âncoras, pontuação por prestígio da escola), as perguntas sondam o viés. Audite o rubric upstream — veja o diversity slate auditor.
  • Ensaio de perguntas. Proteção: o prompt B2 do pack produz explicitamente drill-downs para respostas ensaiadas. O drill-down pede um exemplo diferente ou um contrafactual; não deixa o candidato re-executar o roteiro preparado.
  • Perguntas genéricas escorregando. Proteção: cada pergunta gerada deve referenciar a dimensão do rubric e a âncora que discrimina. Perguntas que não referenciam uma âncora são sinalizadas no output do prompt para o panelista descartar ou reescrever.
  • Dificuldade inconsistente de perguntas entre panelistas. Proteção: os prompts são tagueados com a âncora do rubric (1-5) para a qual estão calibrados. Dois panelistas fazendo perguntas diferentes sobre a mesma dimensão ainda estão calibrados para as mesmas âncoras.
  • Explosão de tamanho. Proteção: os prompts do pack limitam o output a “3 por dimensão, máximo de 12 dimensões” — uma biblioteca típica de uma vaga fica em ~50-80 perguntas, não em 500. O gestor de contratação escolhe 8-15 para realmente usar por slot de painel.
  • Perguntas desatualizadas em rubrics obsoletos. Proteção: re-execute o pack quando o rubric mudar (o pack é rápido — 30 minutos é barato). Bibliotecas de perguntas antigas vinculadas de documentos de prep de entrevista ficam obsoletas silenciosamente de outra forma.

Stack

O bundle de artefatos está em apps/web/public/artifacts/interview-question-bank-prompt-pack/ e contém:

  • interview-question-bank-prompt-pack.md — os doze prompts, prontos para colar no Claude

Ferramentas que o workflow assume que você usa: Claude (o modelo). O output vai para Notion, o wiki da equipe ou um template de plano de entrevistas do ATS.

Conceitos relacionados: structured interviewing, behavioral interviewing, interview loop design, quality of hire.

Arquivos deste artefato

Baixar tudo (.zip)