ooligo
claude-skill

Digest semanal de recruiting para el equipo ejecutivo con Claude

Dificultad
principiante
Tiempo de setup
30min
Para
recruiting-leader · head-of-people · talent-acquisition
Reclutamiento y TA

Stack

Un Claude Skill que extrae la actividad de hiring del lunes en la mañana desde el ATSAshby, Greenhouse, o Lever — la difea contra el snapshot del lunes pasado, corre un pase determinístico de detección de anomalías de funnel, mete encima el ROI de canal de fuente cuando se provee data de presupuesto, y produce un digest de una página para el Head of Talent. El digest nombra las tres anomalías de funnel de mayor prioridad, los roles top drilleados por salud por-stage, y un único ask recomendado para el equipo de leadership esa semana. Reemplaza el email de status de recruiting del viernes en la tarde que nadie disfruta escribir ni leer, mientras evita deliberadamente el failure mode de rep-leaderboard al que los digests de ops resbalan cuando nadie lo guarda.

Cuándo usar

  • Tu org de recruiting corre una cadencia semanal de leadership — digest del lunes, recap del viernes, o cualquier slot fijo equivalente. El skill está construido para el caso recurrente; snapshots ejecutivos one-off no valen el setup.
  • Puedes producir un snapshot fresco del ATS cada semana. Exports CSV desde Ashby, Greenhouse, o Lever están bien; el skill difea rows estructuradas, no necesita integración de API.
  • Tienes al menos 6 semanas de snapshots previos acumulados. El threshold de anomalía de funnel usa una media trailing de 6 semanas por role + stage; por debajo de 6 semanas el skill suprime flags de anomalía en lugar de dispararse en muestras chicas.
  • Un recruiter, recruiting-ops owner, o el Head of Talent revisa cada digest antes de que vaya a cualquier lado. El skill escribe digest.md a disco y se detiene.
  • Tu lista de prioridad de roles y los SLAs por stage están escritos (o estás dispuesto a escribirlos una vez). El template del bundle references/2-role-priority-list-template.md muestra el formato; si no puedes llenarlo, el skill defaultea a alfabético, que está mal cada semana.

Cuándo NO usar

  • Auto-publicar sin revisión del recruiter. El skill escribe un archivo Markdown. No hay acción de Slack-post o email-send definida en ningún lado del bundle, y agregar una es una expansión deliberada de scope. Contenido sensible — búsquedas ejecutivas privilegiadas, búsquedas de reemplazo de empleado actual, casos de performance en curso — necesita una lectura humana antes de ir a un canal de leadership. Saltarse eso produce drama organizacional en cuatro semanas.
  • Reportes customer-facing. Métricas de pipeline, conteos de candidatos, y diagnósticos de roles estancados son internos. Board packs que necesitan números de recruiting deberían ser un pull autoreado por separado y sanitizado; no forwardees el digest a nada que salga del Slack del people-team.
  • Reviews de performance individual de reps. El skill agrega por role, stage de funnel, y canal de fuente. Deliberadamente quita nombres individuales de recruiter y sourcer del contexto del LLM (ver el pase de bias-screening en apps/web/public/artifacts/weekly-recruiting-digest-skill/SKILL.md, paso 5). Confundir salud de pipeline con performance individual es cómo un digest de ops se convierte en una herramienta de backchannel de performance-review, que la mayoría de works councils y varias leyes laborales de estados de US tratan como evaluación automatizada de trabajadores.
  • Roles con menos de 6 semanas de historia de pipeline. La detección de anomalías necesita un baseline de trailing-mean; en un role nuevo, el digest reporta state sin flags. Usa el drill-down por-role para esos pero ignora el slot vacío de anomalía.
  • Reemplazar el rol de recruiter-coordinator. El recruiting coordinator hace scheduling, comunicación con candidatos, logística de panels, y las partes de human-judgement del digest. El skill toma el paso de síntesis, no el paso de coordinación.

Setup

  1. Coloca el bundle. Copia apps/web/public/artifacts/weekly-recruiting-digest-skill/SKILL.md más el directorio references/ en tu directorio de skills de Claude Code o en el setup de Skills custom de claude.ai. El skill se llama weekly-recruiting-digest.
  2. Schedulea el export del snapshot. Configura tu ATS para dropear un export semanal a un path conocido — cada domingo en la noche para un digest del lunes funciona para la mayoría de los equipos. Las columnas del schema que el skill espera están listadas en SKILL.md bajo “Inputs”; columnas faltantes detienen la corrida con un error de schema en lugar de degradarse silenciosamente.
  3. Llena la lista de prioridad de roles. Copia references/2-role-priority-list-template.md a tu propio repo y reemplaza los rows de ejemplo con tus roles abiertos reales. Setea priority, target_time_to_fill_days, stage_slas_days, y confidentiality por role. El recruiting-ops owner edita esto semanalmente; el skill captura su SHA-256 en metadata de corrida para que diffs semanales sean visibles en retro.
  4. Opcionalmente agrega data de canal de fuente. Si quieres la sección de ROI de fuente, dropea el CSV de canal según el schema en references/3-source-channel-roi-definitions.md. Si está ausente, la sección se omite, no se fabrica. El mismo archivo de definiciones fija la math para cost_per_qualified_applicant y qualified_rate para que las comparaciones week-over-week se mantengan honestas a medida que el reporting de spend se pone al día entre semanas.
  5. Calibra el formato del digest. Edita references/1-digest-format.md para que matchee con las preferencias de audiencia de tu Head of Talent — vocabulario de status (RAG vs On-track / At risk / Blocked), profundidad de explicación de anomalías, y la convención de wording del ask recomendado. El orden de sección estructural y los headers de columna no cambian; solo la prosa in-template.
  6. Dry-run en dos snapshots previos. Elige un lunes de hace dos semanas más el lunes previo, corre el skill, y compara su digest con el que tu equipo realmente circuló esa semana. Los numéricos deberían ser reproducibles; la interpretación narrativa puede no matchear — tunea las notas de preferencia de audiencia si deriva.

Qué hace el skill en realidad

Seis pasos, en orden. Los pasos 1-3 son diffs determinísticos y chequeos de threshold; solo el paso 6 usa el LLM para síntesis narrativa. El orden es deliberado — dejar a un modelo freelancear sobre state de pipeline crudo produce un digest que se lee bien y está mal sobre cuáles números se movieron.

  1. Valida snapshots y carga lista de prioridad. Confirma que el schema matchea entre snapshots current y prior. Detente en una columna renombrada en lugar de remapear silenciosamente — el remap silencioso es cómo los números de conversión de stage se mueven 30% en una semana sin razón real.
  2. Diff de salud de pipeline por role. Para cada role abierto, computa cambio neto de pipeline por stage, conversión de esta-semana vs media trailing, time-in-stage flaggeado contra SLA de role, days-open vs target de time-to-fill. Estos son aritméticos, no LLM. La elección de drillear por role en lugar de agregar org-wide es intencional: una “conversión de funnel de engineering es 22%” esconde el hecho de que dos roles senior backend están en 8% mientras tres roles junior están en 35%, que es el formato accionable.
  3. Detección de anomalía de funnel. Flaggea un stage como anómalo cuando la conversión está a más de 2 desvíos estándar de la media trailing de 6 semanas, cuando más de 30% de candidatos de stage exceden el SLA, o cuando la profundidad de top-of-funnel en un role crítico cae más de 40% week-over-week. Cap en 3 anomalías por digest; más convierte el digest en una watch-list que nadie lee. El threshold de 2-sd en lugar de un porcentaje flat es lo que evita que el skill se dispare en ruido normal de muestra chica en roles de bajo volumen. Ver recruiting funnel metrics para las definiciones de conversión subyacentes.
  4. ROI de canal de fuente (solo si se proveyó data). Computa cost-per-qualified-applicant y qualified-rate por canal usando las definiciones fijas en references/3-source-channel-roi-definitions.md. Flaggea cualquier canal cuya ratio se movió más de 25% para que el recruiting-ops owner verifique la atribución antes del send. El punto de las definiciones fijas es reproducibilidad — los números de last-touch se mueven cuando los valores de source del ATS son renombrados, y el digest no debe presentar un cambio de configuración como una señal real de presupuesto.
  5. Pase de bias-screening. Quita nombres individuales de recruiter, sourcer, y hiring-manager del contexto de la ventana del LLM antes del paso 6. Agregaciones por recruiter_id existen solo como chequeos de carga-vs-capacidad (el recruiter de este role tiene 14 reqs, el target es 8), no como comparaciones inter-recruiter. Remover nombres del contexto es lo que confiablemente mantiene el ranking de rep individual fuera del output; instrucciones de prompt para “no rankear individuos” no son lo suficientemente confiables solas.
  6. Draftea el digest. Paso LLM. Toma los outputs determinísticos más las preferencias de audiencia y drafftea según el formato en references/1-digest-format.md. La narrativa puede interpretar una caída de conversión (“el slot de panel no estuvo disponible por dos semanas”) solo si la interpretación está en las notas de input; de otra forma la línea lee “causa probable no en data de pipeline — recruiter a confirmar”. Termina con un único “Ask recomendado” nombrando audiencia, acción, y role(s) — o el literal “Sin ask de leadership esta semana — el pipeline está on track” si la data no justifica uno. Nunca inventes un ask para llenar el slot.

El schema completo para inputs del ATS, el formato literal de output, y la racional de bias-screening viven todos en apps/web/public/artifacts/weekly-recruiting-digest-skill/SKILL.md.

Realidad de costo

Por digest semanal, en Claude Sonnet 4.5:

  • Tokens de LLM — típicamente 25-45k input tokens (dos snapshots resumidos por los pasos determinísticos + lista de prioridad de roles + CSV de fuente + instrucciones del skill) y 2-4k output tokens (el digest en sí más el apéndice). En Sonnet 4.5 eso cae en aproximadamente $0.10-0.20 por digest. Un año completo de digests semanales son $5-10 en costo de modelo. El spend de modelo es error de redondeo contra el tiempo ahorrado.
  • Tiempo de recruiting-ops — el win está acá, no en costo de modelo. Escribir a mano un digest semanal estructurado desde cero — sacar del ATS, computar conversión por-role, escanear breaches de SLA, formatear la tabla, draftar el ask recomendado — son 90-120 minutos para un recruiting-ops manager que conoce la data bien, más para alguien más nuevo. Revisar y editar el draft del skill son 15-25 minutos. Eso es aproximadamente 60-90 minutos de vuelta por semana, o un día completo de headcount de ops por trimestre.
  • Tiempo de Head-of-Talent — el segundo win. Un digest consistente, estructurado, en el mismo formato cada lunes se lee en 4-6 minutos; un email de recap semanal de forma libre corre 12-18 minutos (o, más comúnmente, se saltea). La línea del ask recomendado es la parte sobre la que el Head of Talent actúa; el resto es referencia para la semana.
  • Tiempo de setup — 30 minutos para dropear el bundle y llenar la lista de prioridad de roles si la lista de prioridad ya existe de alguna forma (una página de Notion, una spreadsheet). Más cerca de 2 horas si la lista de prioridad es nueva y el equipo tiene que alinearse sobre qué roles son critical vs high. La alineación es la parte más difícil; el skill es la parte más fácil.
  • Storage de snapshots — trivial. Un export CSV semanal desde Ashby o Greenhouse está en el orden de 1-5 MB. Un año de snapshots son menos de 250 MB; manténlos en un bucket S3 privado o en una carpeta repo-private.

Métrica de éxito

Trackea tres números por trimestre, en el dashboard de ops de tu equipo:

  • Tasa de read-through del digest. Qué share de los destinatarios nombrados abren el digest dentro de 24 horas del send. Trackea en tu tool de email o agregando un beacon de un píxel. Por debajo de 70% significa que el digest es demasiado largo, demasiado genérico, o llega al momento equivocado — arregla el formato antes de agregar secciones.
  • Tasa de hit del ask recomendado. Qué share de los asks recomendados semanales son actuados por el equipo de leadership dentro de la misma semana. Por debajo de 50% significa que los asks son vagos (reescribe la convención de ask recomendado en references/1-digest-format.md) o demasiado chicos para superficializarse (deja que el skill escriba “sin ask esta semana” más seguido).
  • Tiempo-desde-flag-de-anomalía-hasta-remediación. Cuando una anomalía de funnel se superficializa en el digest, cuántos días hasta que la conversión o SLA subyacente se recupera. La métrica de throughput que el digest está pensado para mover. Mira esta tendencia sobre 6-8 semanas en lugar de semana-a-semana.

vs alternativas

  • vs los dashboards de Ashby Analytics — el reporting de Ashby es excelente para el recruiting-ops owner que quiere filtrar y pivotar en vivo. El gap es la capa de síntesis: el Head of Talent no quiere un dashboard, quiere una página que diga “estas tres cosas pasaron, acá está el único ask.” Elige Ashby Analytics si tu audiencia es el equipo de recruiting mismo; elige este skill si tu audiencia es leadership ejecutivo y necesitas la síntesis escrita para ellos cada semana. Los dos son complementarios, no compiten.
  • vs Datapeople — Datapeople es fuerte en scoring de bias en descripciones de trabajo y analytics de funnel de inbound. Problema diferente. Usa Datapeople upstream del funnel (mejorando job posts, superficializando disparidades de inbound); usa este skill downstream (sintetizando qué ya pasó a través de los roles abiertos). Comprar Datapeople no remueve la necesidad del digest semanal.
  • vs un digest manual escrito por recruiter-coordinator. La opción de recruiter-coordinator funciona cuando una persona dueña de la autoría del digest por menos de 8 semanas antes de churnear a la próxima cosa. Falla cuando el formato deriva semana-a-semana (secciones diferentes cada lunes) o cuando el autor está de vacaciones. El skill enforce consistencia de formato por estructura y remueve el failure mode “el autor de esta-semana estaba cansado”. Combina el skill con el recruiting coordinator haciendo el scheduling subyacente y el enforcement de SLA — ellos permanecen el operador; el skill es el sintetizador.
  • vs un script SQL + Python homegrown contra el export del ATS. Mismos numéricos, costo de setup más bajo solo si ya tienes un pipeline de warehouse desde el ATS. La mayoría de los equipos no. El skill shippea el pase de bias-screening, las definiciones fijas de source-attribution, y la convención de ask recomendado; reconstruir esos in-house son otras 2-3 semanas de trabajo sin un payoff claro.

Puntos de atención

  • Rankear recruiters o sourcers individuales — guardado por el pase de bias-screening en el paso 5, que quita nombres individuales del contexto del LLM. Agregaciones por recruiter_id existen solo como chequeos de carga-vs-capacidad. El formato de output no tiene sección de recruiter-leaderboard y agregar una es una expansión deliberada de scope que debería ser un skill separado con postura de consent separada (ver también diversity recruiting para por qué los rankings per-individuo producen más drama org-wide que insight).
  • Drift de source-attribution — guardado por las definiciones fijas en references/3-source-channel-roi-definitions.md y la comparación de media trailing de 4 semanas en lugar de week-over-week. Cualquier canal cuyo cost-per-qualified-applicant se mueva más de 25% es flaggeado para que el recruiting-ops owner verifique antes de que el digest salga. La checklist de verificación pregunta las tres preguntas que pescan reconfiguraciones del source-picker del ATS y reporting de invoice rezagado antes de que sean presentados como cambios reales.
  • Flags de anomalía falso-positivos — guardados por la supresión de menos-de-6-semanas de historia y el threshold de 2 desvíos estándar en lugar de un porcentaje flat. El cap duro de 3 anomalías por digest se enforcea incluso cuando más pasarían técnicamente, sobre la base de que tres es el límite superior sobre el que el equipo de leadership puede actuar por semana. Más allá de tres el digest deja de ser actuado del todo.
  • Data del ATS estancada — guardada por el chequeo del paso 1 de que el snapshot actual está fechado dentro de las últimas 24 horas. Un digest corrido en data de tres días contradice a sí mismo contra cualquier ejecutivo que chequeó el ATS ayer y erosiona la confianza más rápido que skippear el digest enteramente.
  • Exposición de role privilegiado o sensible — guardada por el flag confidentiality: restricted en references/2-role-priority-list-template.md. Roles restringidos son resumidos por team y stage solo — sin título de role, sin conteo de candidatos cuando la profundidad de pipeline es baja, sin nombre de hiring-manager. El Head of Talent decide por corrida si algún role restringido va en la versión de leadership más amplia.
  • Drift de auto-send — guardado por la ausencia de cualquier acción de send en el bundle del skill. El skill escribe digest.md a disco y sale. El recruiting-ops owner pastea en el canal de su elección después de una lectura final. Cablear una acción de auto-send sobre el skill es el feature request único más común y la forma confiable única más alta de aterrizar contenido sensible frente a la audiencia equivocada.

Stack

El bundle del skill vive en apps/web/public/artifacts/weekly-recruiting-digest-skill/ y contiene:

  • SKILL.md — la definición del skill (cuándo-invocar, inputs, método de seis pasos, formato de output, puntos de atención)
  • references/1-digest-format.md — formato estructural fijo más preferencias de audiencia editables
  • references/2-role-priority-list-template.md — lista de prioridad por-role rellenable con SLAs de stage y flags de confidencialidad
  • references/3-source-channel-roi-definitions.md — math fija para cost-per-qualified-applicant y qualified-rate más la checklist de verificación de drift de atribución

Tools que el workflow asume que ya usas: Claude (el modelo), y Ashby, Greenhouse, o Lever (el ATS). Combina con el recruiting coordinator que es dueño del scheduling y enforcement de SLA, y con el miembro del equipo que es dueño del job de export semanal. Ver time-to-fill vs time-to-hire para las definiciones de métrica que el drill-down por-role asume.

Archivos de este artefacto

Descargar todo (.zip)