ooligo
claude-skill

Construye listas de cuentas ICP-fit desde señales públicas con Clay y Claude

Dificultad
intermedio
Tiempo de setup
45min
Para
revops · sdr-leader
RevOps

Stack

La mayoría de los ejercicios de ICP terminan en una sopa de adjetivos: “SaaS de mid-market en fintech, mentalidad de growth, conscientes de seguridad”. Las listas armadas a partir de un brief así o se quedan cortas (filtros muy apretados, te salen 30 cuentas obvias que ya tiene todo el mundo) o se pasan (filtros muy sueltos, te salen 4,000 logos y los AEs ignoran el archivo). El bundle que esta página entrega hace la inversión: en vez de describir el ICP, apuntas a diez o veinte cuentas closed-won y dejas que Claude haga ingeniería inversa de qué tienen en común, y luego dejas que Clay traduzca esa firma en filtros y enrichment.

El artefacto es un Claude Skill — icp-list-builder — que corre el loop seed-a-lista de punta a punta y escribe un draft rankeado a una tabla de Clay. Está diseñado para entregarle al revisor un reporte en markdown y una tabla de Clay lado a lado, no para empujar directo a outbound.

Cuándo usarlo

Usa este skill cuando puedas nombrar 10-20 cuentas closed-won que comparten una forma reconocible, y quieras que las próximas 100-500 candidatas se les parezcan. Los disparadores más comunes en la práctica:

  • Refresh trimestral de territorio — los AEs necesitan un draft de lista por región, recién scoreado contra señales públicas actuales
  • Lanzamiento de un nuevo producto wedge o de un nuevo tier de pricing y la semilla de “quienes dijeron que sí” es chica pero real
  • Un programa de outbound ya trabajó el ICP obvio y el equipo necesita una segunda ola informada por lo que cerró, no por lo que el founder originalmente imaginó que era el ICP

El skill asume una cuenta de Clay en plan Pro o superior. Por debajo de Pro la superficie de enrichment es demasiado angosta para que el loop de lookalike sea útil, y vas a terminar pagando por un workflow que hace aproximadamente lo que un spreadsheet más una búsqueda de LinkedIn harían.

Cuándo NO usarlo

  • ABM de cuentas nominadas tier-1. Las listas armadas a mano para 25-50 cuentas estratégicas involucran input de customer-success y de exec que el skill no puede modelar. Usa esto para outbound tier-2 y tier-3; la varianza del loop de lookalike es demasiado alta para selección de tier-1.
  • Auto-cargar a secuencias de outbound. El output es un draft rankeado. El skill escribe a una tabla de Clay y produce un reporte en markdown deliberadamente para que un AE o SDR tenga que mirarlo antes de cualquier envío. Si conectas el output a un trigger de secuencia, lo estás usando mal.
  • Re-scorear cuentas que ya están en tu CRM. Usa una herramienta de intent nativa del CRM para eso. Este skill escribe candidatos net-new; no re-rankea los conocidos.
  • Scoring sobre proxies de clase protegida. Género del founder, etnicidad del founder, alma mater, origen del nombre — nada de eso pertenece al rubric. El archivo de rubric de referencia enumera qué dimensiones están permitidas; no agregues otras.
  • Listas semilla de menos de ocho cuentas. El skill se rehúsa a proceder con menos de ocho seeds válidas porque la extracción de la firma no es confiable sobre una base más chica. Si solo tienes cinco wins, arma la lista a mano y vuelve cuando tengas más.

Setup

El bundle vive en apps/web/public/artifacts/icp-account-list-builder-clay/ y contiene:

  • SKILL.md — la definición del Claude Skill que orquesta el loop
  • references/1-icp-rubric-template.md — los gates firmográficos y los pesos de señal que llenas para tu equipo
  • references/2-signal-source-matrix.md — qué fuentes públicas cuentan como primarias vs corroborantes, y cuáles están explícitamente prohibidas
  • references/3-exclusion-criteria.md — dominios baneados, parent companies, y patrones firmográficos que nunca deben aparecer en el output

El setup toma aproximadamente 45 minutos la primera vez y 5 minutos en cada refresh.

  1. Instala el Skill. Mete SKILL.md en tu directorio de Claude Skills (o cárgalo vía Claude Code con /skill load). Llena references/1-icp-rubric-template.md con tus gates firmográficos reales, señales technographic, y pesos de señal. Llena references/3-exclusion-criteria.md desde un export fresco del CRM de clientes, oportunidades activas, y cuentas closed-lost de los últimos 180 días.
  2. Prepara la lista semilla. Un CSV con company_name, domain, y why_we_won (dos oraciones). Saca seeds de varios AEs, segmentos, y close-months — el skill avisa si más del 60% de las seeds comparten un solo AE, vertical, o close-month, porque eso produce una lista que se ve como el territorio de un solo rep.
  3. Conecta Clay. El skill lee tu workspace de Clay vía API. Define el workspace ID y la API key en la config local del Skill (nunca commitees esto al bundle).
  4. Primera corrida. Invoca el skill con tu CSV de seeds y un target_list_size de 100. La primera corrida es más lenta porque el universo firmográfico está sin filtrar; las corridas siguientes contra una vista guardada de Clay son más rápidas.
  5. Revisa el reporte de markdown y la tabla de Clay juntos. El reporte explica la firma de la seed, el desglose por tipo de señal, y los conteos de exclusion-flag. La tabla de Clay es la superficie de trabajo para el AE.

Qué hace realmente el skill

Seis pasos, en orden. El orden importa — correr el scoring del LLM antes del filtro firmográfico desperdicia créditos y arrastra misfits obvios.

  1. Carga y valida los inputs. Tira las seeds que no tienen why_we_won y se rehúsa a correr con menos de ocho seeds válidas.
  2. Extrae la firma de la seed. Manda las seeds y el rubric de ICP a Claude, que devuelve una firma estructurada: códigos de industria, banda de headcount, banda de revenue, geografía, etapa de funding, marcadores technographic, y marcadores de intent. Las notas de why_we_won codifican señales que no son columnas de Clay (“tenían una página de seguridad y compliance”); por eso se necesita un pase de LLM antes del filtro determinístico.
  3. Aplica el filtro firmográfico determinístico en Clay. Traduce los hard gates de la firma en filtros de Clay y los corre primero para reducir el universo a aproximadamente 500-3,000 candidatos. Tira cualquier cosa de la lista de exclusión en esta etapa. Hacer esto antes del scoring corta el costo de LLM aproximadamente en 30-100x porque la mayoría de los rechazos son misfits firmográficos obvios que no necesitan razonamiento.
  4. Enriquece y corrobora señales de intent. Para cada candidato restante, pídele a Clay que enriquezca tech stack, deltas de hiring, y anuncios de los últimos 90 días, luego pídele a Claude scores de match por señal con citas. Cualquier señal individual de intent requiere una señal corroborante primaria — un cambio de trabajo en LinkedIn más un press release, por ejemplo. Las afirmaciones de intent de fuente única se scorean en 0 con razón “no corroborado” en lugar de adivinar.
  5. Rankea, deduplica, y batch-write a Clay. Ordena por score total, deduplica sobre la columna de parent-company, y escribe las primeras target_list_size filas a una nueva tabla de Clay en un solo batch. Los writes por fila queman créditos y dejan estado inconsistente si hay interrupción; los writes por batch no.
  6. Produce el reporte de output. Un documento de markdown con la firma de la seed arriba, la tabla de candidatos rankeada, un desglose por tipo de señal, conteos de exclusion-flag, y metadata de la corrida. El revisor lee esto antes de trabajar la tabla de Clay.

Realidad de costos

Las palancas grandes de costo son los créditos de enrichment de Clay y los tokens de Claude. Presupuestos aproximados por corrida, anclados a un target_list_size de 100 contra un universo firmográficamente filtrado de 1,800-2,200 candidatos:

  • Tokens de Claude (extracción de firma + scoring por candidato). Aproximadamente 500K-700K tokens de input y 80K-120K tokens de output en Claude Opus por corrida. Al pricing de lista de Opus 4.7 eso aterriza alrededor de $9-14 por corrida. En Claude Sonnet el mismo loop está alrededor de $1.50-$2.50 por corrida con pérdida medible de calidad en el paso de extracción de firma (el razonamiento de patrón sobre la seed se beneficia del modelo más grande). Recomendación: Opus en el paso de firma, Sonnet en el paso de scoring por candidato.
  • Créditos de Clay. Aproximadamente 800-1,000 créditos de enrichment por corrida para un output de 100 filas, asumiendo 2,000 candidatos entrando al paso de enrichment. Al pricing de Clay Pro eso es alrededor de $24-30 en costo de créditos por corrida; en el tier Explorer los créditos son más apretados y deberías bajar target_list_size a 50 o pre-filtrar más fuerte.
  • A escala. Un equipo corriendo esto semanalmente por región (digamos, cuatro pods de AE) aterriza alrededor de $1,300-$2,000 al mes combinados ($150-200 de Claude, el resto en créditos de Clay). Eso está muy por debajo del costo de un solo asiento de ZoomInfo SalesOS y produce una lista más fresca, pero requiere mantener actualizado el rubric y el archivo de exclusión — los inputs desactualizados son donde el costo se descontrola (pagas créditos para enriquecer cuentas que nunca debieron pasar el Paso 1).

El patrón dominante de blowup de costo es llamar al skill repetidamente con un gate firmográfico suelto y ver el universo de candidatos inflarse. La guarda está en el Paso 3: si Clay devuelve más de 5,000 candidatos, el skill aprieta una banda y vuelve a correr en lugar de enriquecer todo el set.

Métrica de éxito

La métrica para vigilar es la tasa a la que los AEs aceptan el draft de la lista a su working set sin retrabajo manual. Objetivo: 70%+ aceptados (es decir, de 100 candidatos rankeados, al menos 70 aterrizan en la cola de outbound de alguien sin ser borrados ni reetiquetados). Por debajo del 50% de aceptación, el rubric está mal, la lista de seeds está sesgada, o el archivo de exclusión está desactualizado — diagnostica en ese orden.

Secundaria: tasa de meeting-booked sobre las cuentas aceptadas comparada con la lista de outbound baseline del equipo. El skill está pagando su costo de créditos cuando esa tasa es al menos igual a la baseline; el value-add es la reducción del tiempo de armado de listas, no necesariamente un lift de conversión inmediato.

vs alternativas

  • vs LinkedIn Sales Navigator + filtrado manual. Sales Nav es la herramienta correcta para listas tier-1 armadas a mano y para prospección individual sobre un candidato. Es la herramienta equivocada para producir 100 lookalikes rankeados semanalmente — los filtros de saved-search no capturan señales de intent, y el tiempo de filtrado manual por lista es aproximadamente 3-5 horas de la semana de un SDR. Este skill reemplaza esas 3-5 horas con una revisión de 5 minutos sobre un draft rankeado.
  • vs ZoomInfo SalesOS Intent. SalesOS es maduro, tiene buena data de intent en cuentas enterprise, y es la respuesta correcta si tienes un motion enterprise y el presupuesto de $35K-$80K al año en asientos. Para un motion mid-market en un equipo más chico, este skill más Clay Pro es aproximadamente el 80% de la señal al 5-10% del costo, con el trade-off de que tú eres dueño del rubric y de la lista de exclusión en lugar de depender del scoring de un vendor.
  • vs Apollo Living Data. El feature de lookalike de Apollo es lo más cercano en forma a este skill y es un click en lugar de un setup de 45 minutos. El scoring de lookalike de Apollo es opaco (no puedes ver los pesos de señal ni overridearlos) y los outputs tienden a sobre-indexar en similitud firmográfica. Este skill hace inspeccionables el rubric y los pesos y obliga a la corroboración por señal; el costo es el tiempo de setup y el requisito de mantener los archivos de referencia actualizados.
  • vs nada (status quo, el AE arma la lista). Las listas armadas por AE son completas en las cuentas conocidas del AE y débiles en los lookalikes que el AE no ha escuchado. Este skill es lo opuesto — es malo en cuentas estratégicas nominadas y bueno sacando a la luz los próximos 100 lookalikes. El patrón honesto es correr ambos en paralelo: el AE es dueño de la lista nominada, el skill produce el draft de lookalikes.

Watch-outs

  • Datos firmográficos basura de fuentes públicas. Los números de headcount y revenue de los aggregators rezagan la realidad por 6-18 meses y están equivocados en 30-50% en empresas growth-stage. Defensa: el skill trata cualquier fuente firmográfica individual como direccional y requiere acuerdo entre dos fuentes independientes antes de aplicar un hard gate. Los conflictos salen en el reporte de output (“LinkedIn dice 120, BuiltWith dice 380 — marcado para revisión manual”) en lugar de resolverse en silencio.
  • Ruido de señal de intent. Una señal de “contrató a un VP of Sales” raspada de LinkedIn solo clasifica mal promociones, roles de contrato, y title inflation como new-hires. Defensa: el Paso 4 requiere una señal corroborante primaria (press release, evidencia de LinkedIn de un segundo ángulo) antes de que cualquier señal de intent score arriba de 0; las afirmaciones no corroboradas se scorean en 0 con la razón registrada para auditoría.
  • Envenenamiento de la lista por bases de datos desactualizadas. Algunas fuentes de enrichment de Clay traen empresas zombi — adquiridas, fusionadas, o difuntas — que pasan los filtros pero no pueden comprar. Defensa: tira cualquier candidato cuyo website devuelva un 4xx/5xx en el chequeo de homepage, no tenga actividad en LinkedIn en los últimos 90 días, o cuyo campo de parent-company resuelva a un adquirente conocido en el archivo de exclusión. El conteo de drops aparece en la metadata de la corrida para que el operador detecte un spike (señal de que el archivo de exclusión o la fuente del aggregator se está degradando).
  • Sesgo en la seed. Una lista semilla de 10 wins de un solo AE en un solo vertical produce una lista que se ve como el territorio de ese AE. Defensa: el skill avisa si más del 60% de las seeds comparten el mismo AE, vertical, o close-month, y le pide al operador que amplíe la seed antes de continuar.
  • Sobreajuste del filtro. Una firma tan apretada que solo coincide con las 14 seeds produce 0-30 candidatos y se siente precisa pero es inútil. Defensa: si el Paso 3 devuelve menos de 200 candidatos, el skill afloja las bandas de headcount y revenue un nivel y vuelve a correr en lugar de proceder con un universo hambriento.
  • Archivo de exclusión desactualizado. Si el export de la lista de clientes tiene dos meses, un cliente puede colarse y terminar en outbound. Defensa: el skill avisa en el reporte de output cuando last_refreshed en el archivo de exclusión tiene más de 14 días.

Stack

  • Clay (Pro o superior) — sustrato de enrichment, filtro firmográfico, y tabla destino. Pro es el piso práctico para el loop de lookalike.
  • Claude (Opus 4.7 para extracción de firma, Sonnet para scoring por candidato) — razonamiento de firma sobre las notas de why_we_won de la seed y scoring de corroboración por señal con citas. Dividir la selección de modelo entre los dos pasos es donde el trade-off costo-calidad aterriza mejor.
  • CRM (cualquiera) — fuente de la lista semilla, lista de clientes, lista de oportunidades, y lista closed-lost que alimenta el archivo de exclusión. El skill no lee el CRM directamente; el operador exporta CSVs.
  • Destino de outbound (Outreach, Salesloft, Apollo, custom) — donde sea que vaya la lista revisada después de la aceptación del AE. El skill se detiene en la tabla de Clay por diseño.

Archivos de este artefacto

Descargar todo (.zip)