Un Claude Skill que toma cualquier fila de lead, la corre contra la rúbrica ICP de tu equipo, y devuelve un score 0-10, una justificación por-criterio citando la rúbrica, una acción recomendada por tier y una bandera de escalación para casos borderline. Diseñado para enchufarse a una columna AI de Clay, una custom-code action de HubSpot o un run standalone de CLI sobre un CSV. Reemplaza la matriz de scoring en spreadsheet que nadie ha actualizado desde el año pasado — sin pretender que también puede hacer scoring de intent o conductual, que no puede.
El bundle se entrega en apps/web/public/artifacts/lead-scoring-icp-rubric-skill/ y contiene SKILL.md más tres plantillas de referencia que el usuario adapta antes del primer run.
Cuándo usarlo
Usa este skill cuando tengas MQLs inbound apilándose más rápido de lo que tu equipo de SDRs puede triar, y el scoring existente o no existe (“todo es un lead”) o está stale (“matriz de scoring de HubSpot calibrada por última vez en 2023, nadie confía en ella”). También es útil para outbound: puntúa una lista cold enriquecida antes de asignarla, y dejas de quemar tiempo de SDR en empresas fuera-de-ICP que se ven superficialmente bien.
El skill es scoring de fit, no scoring de intent. Responde “¿es este el tipo correcto de empresa para nosotros?” — no “¿están en-mercado esta semana?”. Esa distinción importa: si solo puntúas por fit, vas a meter en secuencia cuentas con gran fit que no tienen necesidad actual e ignorar cuentas con mal fit que están comprando activamente. Empareja este skill con lo que sea que señale conducta in-market — Bombora, 6sense, tus propios eventos de uso de producto, hits a la página de pricing — para rutear correctamente.
Concretamente, invócalo desde:
- Una columna AI de Clay que dispara en cada nueva fila de una tabla de leads, escribiendo el score y la justificación de vuelta a dos columnas.
- Una custom-code action de HubSpot en un workflow disparado por
Lifecycle stage = MQL, que llama al skill y escribe tanto el score como la justificación a propiedades del lead. - Una CLI standalone sobre un export CSV — útil para scoring de listas one-off antes del lanzamiento de una campaña.
Cuándo NO usarlo
Salta este skill cuando:
- Quieres auto-rechazar leads sin humano en el loop. El output es una recomendación. El skill etiqueta explícitamente los casos borderline con
escalate: needs_human_review, pero si lo cableas para borrar leads puntuados C o menos, vas a destruir pipeline en silencio cada vez que la rúbrica drifte. Mantén siempre un path de revisión SDR para al menos el tier C. - Tu “rúbrica” es vibes. El skill se niega a puntuar contra una rúbrica que no tiene pesos explícitos y valores de tier. Si tu equipo no ha tenido la pelea sobre qué es realmente una industria tier-A, ten esa pelea primero. El skill no puede hacer la rúbrica defendible si la fuente no lo es.
- Necesitas scoring conductual o de intent. Esto es solo scoring de fit. Tratar de codificar “engagement score” o “última visita al sitio” en la rúbrica te fuerza a actualizarla constantemente; usa una herramienta dedicada de intent para las señales que varían en el tiempo y deja este skill para las de fit estáticas.
- Operas en un dominio regulado que requiere explicabilidad más allá de la justificación por-criterio. Los outputs por-criterio son auditables pero no son lo mismo que un model card defendible ante un regulador. Si necesitas eso, invierte en un servicio de scoring propiamente, no en un Claude Skill.
Setup
El setup toma alrededor de 30 minutos una vez que tienes la rúbrica drafteada. La rúbrica en sí toma más — usualmente una sesión de trabajo de 60 minutos con el manager de SDRs, un AE y alguien de RevOps para discutir pesos.
- Instala el Skill. Mete
apps/web/public/artifacts/lead-scoring-icp-rubric-skill/SKILL.mdy la carpetareferences/en tu directorio.claude/skills/lead-scoring/(o súbelo como Skill en claude.ai). Elnameydescriptiondel frontmatter son lo que dispara el Skill en prompts relevantes. - Reemplaza la plantilla de rúbrica. Abre
references/1-icp-rubric-template.mdy reemplaza las filas placeholder en “Criteria” con tus criterios reales, pesos (1-5) y valores de tier (A / B / C). Rellena la sección “Hard disqualifiers” — estos corren como checks deterministas antes de cualquier llamada al LLM. Actualiza “Last edited” para que el SHA-256 que el skill imprime en cada footer del output refleje quién es dueño de la versión actual. - Reemplaza la matriz tier-a-acción. Abre
references/2-tier-to-action-matrix.mdy reemplaza las filas de ejemplo con lo que tu equipo realmente hace en cada combinación(tier, source_of_lead). Los defaults son razonables pero no son los tuyos. - Cablea la fuente de input. En Clay, apunta una columna AI al Skill, pasa la fila enriquecida del lead como
lead, el archivo de rúbrica comorubric, y la columna fuente comosource_of_lead. En HubSpot, envuelve el Skill en una custom-code action que lea las propiedades de contact + company en un objetoleady postea el output estructurado de vuelta. En un script, glob el CSV, postea cada fila, escribe el score y la justificación a dos columnas nuevas. - Configura el destino. Tanto el score como la justificación van al lead. Score en una propiedad numérica (para lógica de routing), justificación en una propiedad long-text (para el SDR que la leerá antes de la call). Cablea el campo
escalatea una propiedad boolean o enum separada para que el manager de SDRs pueda filtrar para revisión. - Calibra. Antes de prenderlo, corre el skill sobre 20 leads closed-won y 20 leads closed-lost de los últimos 6 meses. La distribución de score debe separar claramente las dos cohortes. Si no lo hace, la rúbrica es el problema, no el skill — vuelve al paso 2 y re-discute pesos.
Qué hace realmente el skill
El skill corre cuatro pasos en orden fijo. Los pasos tempranos gatean los siguientes; no paralelices.
Paso 1 — checks firmográficos deterministas. Antes de cualquier llamada al LLM, código plano corre los hard disqualifiers de la rúbrica (país sancionado, industria descalificada, headcount bajo tu piso, dominio de free-mail) y el check de campos requeridos (email y company_domain deben estar presentes). Los hits devuelven inmediatamente — disqualified con la cita, o escalate: insufficient_data con los campos faltantes. Por qué deterministas primero: es gratis, rápido y nunca alucina. Quemar tokens para confirmar que una peluquería de 3 personas no está en tu ICP de SaaS enterprise es un desperdicio.
Paso 2 — scoring por-criterio del LLM con pesado explícito. Para cada criterio restante, el modelo emite un tier (A / B / C) y una justificación de una frase citando la fila de la rúbrica. El skill multiplica tier (A=3, B=2, C=1) por el peso del criterio y suma. Por qué por-criterio en lugar de un prompt holístico: los outputs holísticos mezclan criterios en silencio y pierdes la habilidad de debugear por qué un lead sacó 8 en lugar de 5. Por qué pesado explícito en lugar de dejar al modelo balancear: los pesos declarados son la única forma de que la rúbrica siga siendo la fuente de verdad. Si el modelo decide su propio balance, las revisiones de rúbrica se vuelven teatro.
Paso 3 — fallback borderline a revisión humana. Si el score final está dentro de 0.5 de un borde de tier, o si más de 3 criterios fueron puntuados sobre data faltante o inferida, el skill setea escalate: needs_human_review y nombra los campos faltantes. La falla de scoring más cara no es un tier equivocado en un lead confiado — es un tier equivocado en un lead que siempre fue borderline.
Paso 4 — ensamblado de output. El skill emite el markdown descrito en references/3-sample-output.md: score titular y tier, acción recomendada joineada desde la matriz tier-a-acción, tabla por-criterio con razones, check de disqualifier, lista de data-gaps, y un footer con el SHA-256 de la rúbrica y la fecha last-edited.
Realidad de costos
El costo de tokens por-lead depende del tamaño de la rúbrica, pero para una rúbrica típica de 6 criterios con output estructurado por-criterio, espera aproximadamente 1,500-2,500 tokens de input y 400-700 tokens de output por lead. A precios de Claude Sonnet 4.x (aproximadamente $3 por millón de input y $15 por millón de output a finales de 2026), eso es alrededor de $0.01-0.02 por lead puntuado.
Un equipo corriendo 5,000 MQLs inbound por mes gasta aproximadamente $50-100/mes en tokens de Claude. Un equipo corriendo 50,000 leads outbound enriquecidos por mes gasta $500-1,000/mes — punto en el cual batching, prompt caching de la rúbrica y pre-filtrado con el paso determinista importan mucho. El skill defaultea a un único prompt estructurado por lead (en lugar de 6-10 prompts pequeños) precisamente para mantener el uso de tokens acotado.
Los costos no-token son más grandes. Construir la rúbrica es una sesión de trabajo de 60 minutos que haces una vez y rehaces trimestralmente. Calibrar contra 20 leads closed-won + 20 closed-lost es otra hora. Cablear la integración de Clay o HubSpot es medio día. Después de eso el skill es hands-off hasta que la rúbrica drifte.
Métrica de éxito
La métrica a vigilar es correlación score-a-conversión: de los leads puntuados A en los últimos 90 días, ¿qué fracción convirtió a oportunidades? ¿De los puntuados B? ¿C? Si la curva es monotónica — A convierte a una tasa más alta que B, B a una tasa más alta que C — la rúbrica está haciendo trabajo. Si C convierte a una tasa similar a B, la rúbrica no separa fit de no-fit y necesita re-discutirse.
Métrica secundaria: tiempo-al-primer-touch del SDR sobre leads tier-A. Un sistema de scoring que funciona colapsa esto a menos de 1 hora para inbound. Si los leads tier-A siguen sentados en una cola por 24h, el routing — no el scoring — es el cuello de botella.
vs alternativas
vs HubSpot Predictive Lead Scoring. El score predictivo built-in de HubSpot es una caja negra entrenada sobre tu data histórica de conversión. Funciona una vez que tienes suficiente volumen closed-won (HubSpot recomienda alrededor de 500 deals cerrados como mínimo). Para equipos bajo ese umbral, el modelo no tiene nada de qué aprender y el score es ruido. Este skill funciona desde el día uno porque la rúbrica es escrita a mano, no aprendida. El trade-off: el modelo de HubSpot capta patrones que un autor de rúbrica perdería; este skill solo sabe lo que escribiste. Corre ambos si tienes el volumen — usa el score de HubSpot para “qué me sorprende” y la justificación por-criterio de este skill para “por qué este está rankeado aquí”.
vs scoring conductual de Marketo. Marketo (o el scoring conductual de HubSpot) trackea señales de engagement — opens de email, page views, form submissions — y suma puntos. Eso es scoring de intent, no de fit, y los dos responden preguntas distintas. Una cuenta con gran fit que no ha abierto un email sigue siendo una cuenta con gran fit. Una cuenta con mal fit que se atragantó tu blog sigue siendo una cuenta con mal fit. Usa scoring conductual además de este skill, no en su lugar; rutea sobre la señal combinada (alto fit + alto intent → AE directo; alto fit + bajo intent → nurture; bajo fit + alto intent → fit-call de SDR antes del AE).
vs revisión manual del SDR. Para menos de 50 leads inbound por semana, la revisión manual por un manager de SDRs es genuinamente competitiva — los humanos captan matices (“esta empresa acaba de adquirir a nuestro cliente, prioriza”) que el skill se perderá. Por encima de ~200 leads por semana, la revisión manual se vuelve el cuello de botella y la consistencia baja. El skill escala linealmente con el budget de tokens; los humanos no.
A vigilar
- Drift de rúbrica. Alguien edita el markdown de la rúbrica, shipea el cambio, y los SDRs leyendo los nuevos scores nunca ven un diff. Seis semanas después, el equipo se da cuenta de que el peso de headcount fue bajado de 4 a 2 por accidente y 200 cuentas stretch-tier fueron silenciosamente bajadas a C. Guard: el skill registra el SHA-256 de la rúbrica en cada footer del output y antepone un banner “Rubric updated YYYY-MM-DD” cada vez que el hash cambia entre runs. Un recordatorio de calendario trimestral fuerza una revisión incluso si no hay edits.
- Amplificación de sesgo de fuente. Una rúbrica construida desde tu set closed-won codifica a quién ya le has vendido. Puntuar contra ella te ciega al ICP adyacente y tu pipeline se estrecha con el tiempo a lookalikes de los clientes del año pasado. Guard: cada trimestre, samplea 20 leads que el skill puntuó como tier C y haz que un AE revise manualmente si alguno es realmente fit. Si más de 3 están mal clasificados, añade una fila “stretch ICP” a la rúbrica y recalibra.
- Falsa confianza sobre data delgada. Cuando el enrichment está faltando 4 de 6 campos de criterios, un score de 7.4 es mayormente ruido pero se lee como autoritativo. Los SDRs lo tratarán como un tier-A confiado y saltarán el prep de la call. Guard: el skill setea
escalate: needs_human_reviewcada vez que más de 3 criterios son puntuados sobre data faltante o inferida, y añade una sección “Data gaps” listando los campos ausentes. Los SDRs son entrenados a leer la sección de gaps antes del número titular. - Proxies de clase protegida. Incluso con buena intención, una rúbrica que pesa “geografía” puede colapsar en nacionalidad, e “industria” puede colapsar en proxies de demografía de la empresa de formas que tu equipo legal no va a amar. Guard: el skill rechaza campos que reconoce como proxies de clase protegida (género derivado del nombre, foto, señales de edad). Revisa la rúbrica anualmente con alguien que pueda detectar los proxies menos obvios.
Stack
- Claude — motor de scoring y generador de justificación. Sonnet 4.x es el sweet spot para costo vs calidad de razonamiento en esta tarea; Haiku funciona para el path solo-determinista pero pierde calidad de justificación en el paso del LLM.
- Clay — capa preferida de fuente de leads y enrichment para outbound y scoring de listas cold. La columna AI es un punto de integración limpio.
- HubSpot — CRM destino para score, justificación, bandera escalate y fuente. Las custom-code actions son el punto de integración para scoring de MQLs inbound.
- Un editor de markdown y un calendario — las piezas no-glamorosas. La rúbrica vive en markdown, la revisión trimestral vive en el calendario de alguien, y ambas importan más que la elección de modelo.