ooligo
claude-skill

Digest semanal de recruiting para o time executivo com o Claude

Dificuldade
iniciante
Tempo de setup
30min
Para
recruiting-leader · head-of-people · talent-acquisition
Recrutamento e TA

Stack

Um Claude Skill que puxa a atividade de contratação da manhã de segunda-feira do ATSAshby, Greenhouse ou Lever — faz o diff contra o snapshot da última segunda, roda um passo determinístico de detecção de anomalias no funil, adiciona ROI de canal de sourcing quando dados de orçamento são fornecidos, e produz um digest de uma página para o Head of Talent. O digest nomeia as três anomalias de funil de maior prioridade, os principais roles detalhados por saúde por stage, e um único pedido recomendado para o time de liderança naquela semana. Substitui o e-mail de status de recruiting de sexta à tarde que ninguém gosta de escrever ou ler, evitando deliberadamente o failure mode de leaderboard de reps em que os digests de ops escorregam quando ninguém guarda contra isso.

Quando usar

  • Sua organização de recruiting roda uma cadência semanal de liderança — digest de segunda, recap de sexta, ou qualquer slot fixo equivalente. O skill é construído para o caso recorrente; snapshots executivos pontuais não valem o setup.
  • Você consegue produzir um snapshot fresco do ATS toda semana. Exports CSV do Ashby, Greenhouse ou Lever são suficientes; o skill faz o diff de linhas estruturadas, não precisa de integração via API.
  • Você tem pelo menos 6 semanas de snapshots anteriores acumulados. O threshold de anomalia de funil usa uma média dos últimos 6 semanas por role + stage; abaixo de 6 semanas o skill suprime flags de anomalia em vez de disparar em amostras pequenas.
  • Um recruiter, owner de recruiting-ops, ou o Head of Talent revisa cada digest antes de ir a qualquer lugar. O skill escreve digest.md em disco e para.
  • Sua lista de prioridade de roles e SLAs de stage estão documentados (ou você está disposto a documentá-los uma vez). O references/2-role-priority-list-template.md do bundle mostra o formato; se você não conseguir preenchê-lo, o skill usa ordem alfabética por padrão, o que está errado toda semana.

Quando NÃO usar

  • Auto-publicação sem revisão do recruiter. O skill escreve um arquivo Markdown. Não há ação de post no Slack ou envio de e-mail definida em nenhum lugar do bundle, e adicionar uma é uma expansão deliberada de escopo. Conteúdo sensível — buscas executivas privilegiadas, buscas de substituição de funcionário atual, casos de performance em andamento — precisa de uma leitura humana antes de ir para um canal de liderança. Pular isso produz drama organizacional em menos de quatro semanas.
  • Relatórios voltados para clientes. Métricas de pipeline, contagens de candidatos e diagnósticos de roles paradas são internos. Pacotes de board que precisam de números de recruiting devem ser um pull separado e higienizado; não encaminhe o digest para nada que saia do Slack do time de pessoas.
  • Revisões de performance individual de reps. O skill agrega por role, stage de funil e canal de sourcing. Ele deliberadamente remove nomes individuais de recruiter e sourcer do contexto do LLM (veja o passo de bias-screening em apps/web/public/artifacts/weekly-recruiting-digest-skill/SKILL.md, step 5). Confundir saúde de pipeline com performance individual é como um digest de ops se transforma em uma ferramenta de avaliação de performance nos bastidores, o que a maioria dos conselhos de trabalhadores e várias leis trabalhistas estaduais dos EUA tratam como avaliação automatizada de trabalhadores.
  • Roles com menos de 6 semanas de histórico de pipeline. A detecção de anomalias precisa de uma linha de base de média trailing; em um role novo, o digest reporta estado sem flags. Use o drill-down por role para esses, mas ignore o slot de anomalia vazio.
  • Substituir o papel de recruiter-coordinator. O recruiting coordinator cuida de agendamento, comunicação com candidatos, logística de painel e as partes de julgamento humano do digest. O skill cuida do passo de síntese, não do passo de coordenação.

Setup

  1. Faça o drop do bundle. Copie apps/web/public/artifacts/weekly-recruiting-digest-skill/SKILL.md mais o diretório references/ para o seu diretório de skills do Claude Code ou setup de Skills personalizados do claude.ai. O skill se chama weekly-recruiting-digest.
  2. Agende o export de snapshot. Configure o seu ATS para soltar um export semanal em um caminho conhecido — toda noite de domingo para um digest de segunda funciona para a maioria dos times. As colunas de schema que o skill espera estão listadas em SKILL.md em “Inputs”; colunas ausentes param a execução com um erro de schema em vez de degradar silenciosamente.
  3. Preencha a lista de prioridade de roles. Copie references/2-role-priority-list-template.md para o seu próprio repo e substitua as linhas de exemplo pelos seus roles abertos reais. Defina priority, target_time_to_fill_days, stage_slas_days e confidentiality por role. O owner de recruiting-ops edita isso semanalmente; o skill captura seu SHA-256 nos metadados de execução para que diffs semanais sejam visíveis em retros.
  4. Opcionalmente adicione dados de canal de sourcing. Se você quiser a seção de ROI de sourcing, adicione o CSV de canal conforme o schema em references/3-source-channel-roi-definitions.md. Se ausente, a seção é omitida, não fabricada. O mesmo arquivo de definições fixa a matemática para cost_per_qualified_applicant e qualified_rate para que comparações semana a semana permaneçam honestas conforme o relatório de gastos se atualiza ao longo das semanas.
  5. Calibre o formato do digest. Edite references/1-digest-format.md para corresponder às preferências de audiência do seu Head of Talent — vocabulário de status (RAG vs No prazo / Em risco / Bloqueado), profundidade de explicação de anomalia e a convenção de texto do pedido recomendado. A ordem das seções estruturais e os cabeçalhos de coluna não mudam; apenas a prosa dentro do template.
  6. Faça um dry-run em dois snapshots anteriores. Escolha uma segunda-feira de duas semanas atrás mais a segunda-feira antes dela, execute o skill e compare seu digest com o que o seu time realmente circulou naquela semana. Os números devem ser reproduzíveis; a interpretação narrativa pode não corresponder — ajuste as notas de preferência de audiência se houver drift.

O que o skill realmente faz

Seis passos, em ordem. Os passos 1-3 são diffs determinísticos e verificações de threshold; apenas o passo 6 usa o LLM para síntese narrativa. A ordem é deliberada — deixar um modelo improvisar sobre o estado bruto do pipeline produz um digest que lê bem e está errado sobre quais números se moveram.

  1. Valide snapshots e carregue a lista de prioridade. Confirme que o schema corresponde entre os snapshots atual e anterior. Pare em uma coluna renomeada em vez de remapear silenciosamente — remap silencioso é como números de conversão de stage se movem 30% em uma semana sem nenhuma razão real.
  2. Diff de saúde de pipeline por role. Para cada role aberto, compute a mudança líquida de pipeline por stage, conversão desta semana vs média trailing, tempo no stage sinalizado contra o SLA do role, dias abertos vs target time-to-fill. Esses são aritméticos, não LLM. A escolha de detalhar por role em vez de agregar org-wide é intencional: “conversão do funil de engenharia é 22%” esconde o fato de que dois roles sênior de backend estão em 8% enquanto três roles júnior estão em 35%, que é o formato acionável.
  3. Detecção de anomalias de funil. Sinalize um stage como anômalo quando a conversão estiver mais de 2 desvios padrão da média trailing de 6 semanas, quando mais de 30% dos candidatos no stage excedem o SLA, ou quando a profundidade top-of-funnel em um role crítico cai mais de 40% semana a semana. Limite em 3 anomalias por digest; mais transforma o digest em uma watch-list que ninguém lê. O threshold de 2 dp em vez de uma porcentagem fixa é o que impede o skill de disparar em ruído normal de amostra pequena em roles de baixo volume. Veja métricas de funil de recruiting para as definições de conversão subjacentes.
  4. ROI de canal de sourcing (somente se dados foram fornecidos). Compute cost-per-qualified-applicant e qualified-rate por canal usando as definições fixas em references/3-source-channel-roi-definitions.md. Sinalize qualquer canal cujo ratio se moveu mais de 25% para o owner de recruiting-ops verificar a atribuição antes do envio. O ponto das definições fixas é a reprodutibilidade — números last-touch se movem quando valores de source do ATS são renomeados, e o digest não deve apresentar uma mudança de configuração como um sinal real de orçamento.
  5. Passo de bias-screening. Remova nomes individuais de recruiter, sourcer e hiring manager do contexto do LLM antes do passo 6. Agregações por recruiter_id existem apenas como verificações de carga vs capacidade (o recruiter deste role tem 14 reqs, o target é 8), não como comparações entre recruiters. Remover nomes do contexto é o que de forma confiável mantém o ranking individual de reps fora do output; instruções de prompt para “não rankear indivíduos” não são confiáveis o suficiente sozinhas.
  6. Faça o rascunho do digest. Passo de LLM. Pegue os outputs determinísticos mais as preferências de audiência e faça o rascunho conforme o formato em references/1-digest-format.md. A narrativa pode interpretar uma queda de conversão (“o slot de painel estava indisponível por duas semanas”) somente se a interpretação estiver nas notas de input; caso contrário a linha lê “causa provável não está nos dados de pipeline — recruiter deve confirmar”. Termine com um único “Pedido recomendado” nomeando audiência, ação e role(s) — ou o literal “Nenhum pedido de liderança esta semana — pipeline está no prazo” se os dados não justificarem um. Nunca invente um pedido para preencher o slot.

O schema completo para inputs do ATS, o formato de output literal e a justificativa do bias-screening ficam todos em apps/web/public/artifacts/weekly-recruiting-digest-skill/SKILL.md.

Realidade de custos

Por digest semanal, no Claude Sonnet 4.5:

  • Tokens de LLM — tipicamente 25-45k tokens de input (dois snapshots resumidos pelos passos determinísticos + lista de prioridade de role + CSV de sourcing + instruções do skill) e 2-4k tokens de output (o próprio digest mais o apêndice). No Sonnet 4.5 isso fica em torno de $0,10-0,20 por digest. Um ano inteiro de digests semanais é $5-10 em custo de modelo. O gasto com modelo é erro de arredondamento contra o tempo economizado.
  • Tempo de recruiting-ops — o ganho está aqui, não no custo do modelo. Escrever manualmente um digest semanal estruturado do zero — puxar o ATS, computar conversão por role, escanear por violações de SLA, formatar a tabela, redigir o pedido recomendado — é 90-120 minutos para um gerente de recruiting-ops que conhece bem os dados, mais para alguém mais novo. Revisar e editar o rascunho do skill é 15-25 minutos. Isso representa aproximadamente 60-90 minutos de volta por semana, ou um dia inteiro de ops por trimestre.
  • Tempo do Head of Talent — o segundo ganho. Um digest consistente e estruturado no mesmo formato toda segunda-feira é lido em 4-6 minutos; um e-mail semanal de recap de formato livre leva 12-18 minutos (ou, mais comumente, é pulado). A linha de pedido recomendado é a parte em que o Head of Talent age; o resto é referência para a semana.
  • Tempo de setup — 30 minutos para fazer o drop do bundle e preencher a lista de prioridade de roles se a lista já existe em alguma forma (uma página no Notion, uma planilha). Mais perto de 2 horas se a lista de prioridade é nova e o time precisa se alinhar sobre quais roles são critical vs high. O alinhamento é a parte mais difícil; o skill é a parte mais fácil.
  • Armazenamento de snapshots — trivial. Um export CSV semanal do Ashby ou Greenhouse fica na ordem de 1-5 MB. Um ano de snapshots fica abaixo de 250 MB; guarde em um bucket S3 privado ou em uma pasta privada do repo.

Métrica de sucesso

Acompanhe três números por trimestre, no seu dashboard de ops do time:

  • Taxa de leitura do digest. Que porcentagem dos destinatários nomeados abre o digest em até 24 horas do envio. Acompanhe na sua ferramenta de e-mail ou adicionando um beacon de um pixel. Abaixo de 70% significa que o digest é muito longo, muito genérico ou chega na hora errada — conserte o formato antes de adicionar seções.
  • Taxa de execução dos pedidos recomendados. Que porcentagem dos pedidos recomendados semanais são executados pelo time de liderança dentro da mesma semana. Abaixo de 50% significa que os pedidos são vagos (reescreva a convenção de pedido recomendado em references/1-digest-format.md) ou pequenos demais para aparecer (deixe o skill escrever “nenhum pedido esta semana” com mais frequência).
  • Tempo da flag de anomalia até a remediação. Quando uma anomalia de funil aparece no digest, quantos dias até que a conversão ou o SLA subjacente se recupere. A métrica de throughput que o digest deve mover. Observe essa tendência ao longo de 6-8 semanas em vez de semana a semana.

Versus as alternativas

  • vs dashboards Analytics do Ashby — o reporting do Ashby é excelente para o owner de recruiting-ops que quer filtrar e pivotar ao vivo. O gap é a camada de síntese: o Head of Talent não quer um dashboard, quer uma página que diga “essas três coisas aconteceram, aqui está o único pedido.” Escolha o Ashby Analytics se sua audiência é o próprio time de recruiting; escolha este skill se sua audiência é a liderança executiva e você precisa da síntese escrita para eles toda semana. Os dois são complementares, não concorrentes.
  • vs Datapeople — o Datapeople é forte em pontuação de bias em job descriptions e analytics de funil inbound. Problema diferente. Use o Datapeople upstream do funil (melhorando posts de vagas, expondo disparidades inbound); use este skill downstream (sintetizando o que já aconteceu nos roles abertos). Comprar o Datapeople não elimina a necessidade do digest semanal.
  • vs um digest escrito manualmente pelo recruiter-coordinator. A opção de recruiter-coordinator funciona quando uma pessoa é owner da autoria do digest por menos de 8 semanas antes de rodar para a próxima coisa. Falha quando o formato deriva semana a semana (seções diferentes toda segunda) ou quando o autor está de férias. O skill impõe consistência de formato por estrutura e remove o failure mode de “o autor desta semana estava cansado”. Combine o skill com o recruiting coordinator fazendo o agendamento e enforcement de SLA subjacentes — eles continuam sendo o operador; o skill é o sintetizador.
  • vs um script SQL + Python artesanal contra o export do ATS. Mesmos números, custo de setup menor somente se você já tem um pipeline de warehouse do ATS. A maioria dos times não tem. O skill entrega o passo de bias-screening, as definições fixas de atribuição de sourcing e a convenção de pedido recomendado; reconstruir isso internamente é mais 2-3 semanas de trabalho sem um payoff claro.

Pontos de atenção

  • Ranking de recruiters ou sourcers individuais — guardado pelo passo de bias-screening no step 5, que remove nomes individuais do contexto do LLM. Agregações por recruiter_id existem apenas como verificações de carga vs capacidade. O formato de output não tem seção de leaderboard de recruiter e adicionar uma é uma expansão deliberada de escopo que deve ser um skill separado com postura de consentimento separada (veja também diversity recruiting para entender por que rankings por indivíduo produzem mais drama org-wide do que insight).
  • Drift de atribuição de sourcing — guardado pelas definições fixas em references/3-source-channel-roi-definitions.md e pela comparação de média trailing de 4 semanas em vez de semana a semana. Qualquer canal cujo cost-per-qualified-applicant se mover mais de 25% é sinalizado para o owner de recruiting-ops verificar antes do envio do digest. O checklist de verificação faz as três perguntas que capturam reconfigurations de source-picker do ATS e relatórios de invoice atrasados antes de serem apresentados como mudanças reais.
  • Flags de anomalia falso-positivos — guardados pela supressão de histórico abaixo de 6 semanas e pelo threshold de 2 desvios padrão em vez de uma porcentagem fixa. O limite rígido de 3 anomalias por digest é imposto mesmo quando mais passariam tecnicamente, com base no fato de que três é o limite superior que o time de liderança consegue agir por semana. Além de três o digest para de ser executado completamente.
  • Dados do ATS defasados — guardado pela verificação do step 1 de que o snapshot atual está datado dentro das últimas 24 horas. Um digest rodado em dados de três dias se contradiz contra qualquer executivo que verificou o ATS ontem e erode a confiança mais rápido do que pular o digest completamente.
  • Exposição de roles privilegiados ou sensíveis — guardada pela flag confidentiality: restricted em references/2-role-priority-list-template.md. Roles restritos são resumidos apenas por time e stage — sem título do role, sem contagem de candidatos quando a profundidade do pipeline é baixa, sem nome do hiring manager. O Head of Talent decide por execução se algum role restrito vai na versão mais ampla de liderança.
  • Drift de auto-envio — guardado pela ausência de qualquer ação de envio no bundle do skill. O skill escreve digest.md em disco e sai. O owner de recruiting-ops cola no canal de escolha após uma leitura final. Conectar uma ação de auto-envio ao skill é o pedido de feature mais comum e a forma mais confiável de parar conteúdo sensível na frente da audiência errada.

Stack

O bundle do skill fica em apps/web/public/artifacts/weekly-recruiting-digest-skill/ e contém:

  • SKILL.md — a definição do skill (quando invocar, inputs, método de seis passos, formato de output, pontos de atenção)
  • references/1-digest-format.md — formato estrutural fixo mais preferências de audiência editáveis
  • references/2-role-priority-list-template.md — lista de prioridade por role preenchível com SLAs de stage e flags de confidencialidade
  • references/3-source-channel-roi-definitions.md — matemática fixa para cost-per-qualified-applicant e qualified-rate mais o checklist de verificação de drift de atribuição

Ferramentas que o workflow assume que você já usa: Claude (o modelo), e Ashby, Greenhouse ou Lever (o ATS). Combine com o recruiting coordinator que é owner do agendamento e enforcement de SLA, e com o membro do time que é owner do job de export semanal. Veja time-to-fill vs time-to-hire para as definições de métricas que o drill-down por role assume.

Arquivos deste artefato

Baixar tudo (.zip)