ooligo
claude-skill

Construa listas de contas com fit de ICP a partir de sinais públicos com Clay e Claude

Dificuldade
intermediário
Tempo de setup
45min
Para
revops · sdr-leader
RevOps

Stack

A maioria dos exercícios de ICP deriva em sopa de adjetivos — “SaaS mid-market em fintech, mentalidade de crescimento, security-aware.” Listas construídas a partir desse tipo de brief ficam aquém (filtros muito apertados, você consegue 30 contas óbvias que todo mundo já tem) ou passam da conta (filtros muito frouxos, você consegue 4.000 logos e os AEs ignoram o arquivo). O bundle que esta página disponibiliza faz a inversão: em vez de descrever o ICP, você aponta dez a vinte contas closed-won e deixa o Claude fazer engenharia reversa do que elas têm em comum, depois você deixa o Clay traduzir essa assinatura em filtros e enriquecimento.

O artefato é uma Claude Skill — icp-list-builder — que executa o loop semente-para-lista de ponta a ponta e grava um rascunho classificado em uma tabela Clay. Ela é projetada para entregar a um revisor um relatório markdown e uma tabela Clay lado a lado, não para empurrar direto para outbound.

Quando usar

Use esta skill quando conseguir nomear 10-20 contas closed-won que compartilham um formato reconhecível, e você quer que os próximos 100-500 candidatos se pareçam com elas. Os triggers mais comuns na prática:

  • Refresh trimestral de território — AEs precisam de uma lista rascunho por região, recentemente pontuada contra sinais públicos atuais
  • Um novo produto de wedge ou novo tier de preços é lançado e a semente de “pessoas que disseram sim” é pequena mas real
  • Um programa outbound trabalhou o ICP óbvio e a equipe precisa de uma segunda onda informada pelo que fechou, não pelo que o fundador originalmente imaginou que o ICP seria

A skill assume uma conta Clay no plano Pro ou superior. Abaixo do Pro, a superfície de enriquecimento é muito estreita para o loop de lookalike ser útil, e você acabará pagando por um workflow que faz aproximadamente o que uma planilha mais pesquisa no LinkedIn faria.

Quando NÃO usar

  • ABM de contas nomeadas Tier-1. Listas construídas à mão para 25-50 contas estratégicas envolvem input de customer-success e executivos que a skill não consegue modelar. Use isso para outbound Tier-2 e Tier-3; a variância no loop de lookalike é alta demais para seleção Tier-1.
  • Auto-carregamento em sequências outbound. O output é um rascunho classificado. A skill grava em uma tabela Clay e produz um relatório markdown deliberadamente para que um AE ou SDR tenha que olhar antes de qualquer envio. Se você conectar o output a um trigger de sequência, está usando isso errado.
  • Re-pontuação de contas já no seu CRM. Use uma ferramenta de intenção nativa do CRM para isso. Esta skill escreve candidatos net-new; ela não re-classifica os conhecidos.
  • Pontuação em proxies de classe protegida. Gênero do fundador, etnia do fundador, alma mater, origem do nome — nenhum desses pertence ao rubric. O arquivo de rubric de referência enumera quais dimensões são permitidas; não adicione outras.
  • Listas semente com menos de oito contas. A skill recusa continuar abaixo de oito sementes válidas porque a extração de assinatura é não confiável em uma base menor. Se você só tem cinco vitórias, construa a lista manualmente e volte quando tiver mais.

Configuração

O bundle está em apps/web/public/artifacts/icp-account-list-builder-clay/ e contém:

  • SKILL.md — a definição da Claude Skill que orquestra o loop
  • references/1-icp-rubric-template.md — os gates firmográficos e pesos de sinal que você preenche para a sua equipe
  • references/2-signal-source-matrix.md — quais fontes públicas contam como primárias vs corroborativas, e quais são explicitamente proibidas
  • references/3-exclusion-criteria.md — domínios banidos, empresas-mãe e padrões firmográficos que nunca devem aparecer no output

A configuração leva aproximadamente 45 minutos na primeira vez e 5 minutos em cada refresh.

  1. Instale a Skill. Coloque SKILL.md no seu diretório de Skills do Claude (ou carregue via Claude Code com /skill load). Preencha references/1-icp-rubric-template.md com seus gates firmográficos reais, sinais tecnográficos e pesos de sinal. Preencha references/3-exclusion-criteria.md a partir de um export fresco do CRM de clientes, oportunidades ativas e contas closed-lost dos últimos 180 dias.
  2. Prepare a lista semente. Um CSV com company_name, domain e why_we_won (duas frases). Extraia sementes de vários AEs, segmentos e meses de fechamento — a skill avisa se mais de 60% das sementes compartilham um único AE, vertical ou mês de fechamento, porque isso produz uma lista que parece com o território de um rep.
  3. Conecte o Clay. A skill lê seu workspace Clay via API. Defina o ID do workspace e a chave API na configuração local da Skill (nunca faça commit desses no bundle).
  4. Primeira execução. Invoque a skill com seu CSV semente e um target_list_size de 100. A primeira execução é mais lenta porque o universo firmográfico não está filtrado; execuções subsequentes contra uma view Clay salva são mais rápidas.
  5. Revise o relatório markdown e a tabela Clay juntos. O relatório explica a assinatura semente, o breakdown por tipo de sinal e as contagens de flags de exclusão. A tabela Clay é a superfície de trabalho para o AE.

O que a skill realmente faz

Seis passos, em ordem. A ordem importa — executar pontuação LLM antes do filtro firmográfico desperdiça créditos e traz misfits óbvios.

  1. Carrega e valida os inputs. Descarta sementes com why_we_won faltando e recusa executar abaixo de oito sementes válidas.
  2. Extrai a assinatura semente. Envia as sementes e o rubric de ICP ao Claude, que retorna uma assinatura estruturada: códigos de setor, faixa de headcount, faixa de receita, geografia, estágio de financiamento, marcadores tecnográficos e marcadores de intenção. As notas why_we_won codificam sinais que não são colunas do Clay (“eles tinham uma página de segurança e conformidade”); por isso um passo com LLM é necessário antes do filtro determinístico.
  3. Aplica filtro firmográfico determinístico no Clay. Traduz os gates rígidos da assinatura em filtros Clay e os executa primeiro para estreitar o universo para aproximadamente 500-3.000 candidatos. Descarta qualquer coisa na lista de exclusão neste estágio. Fazer isso antes da pontuação corta o custo LLM em aproximadamente 30-100x porque a maioria das rejeições são misfits firmográficos óbvios que não precisam de raciocínio.
  4. Enriquece e corrobora sinais de intenção. Para cada candidato restante, pede ao Clay para enriquecer tech stack, deltas de contratação e anúncios dos últimos 90 dias, depois pede ao Claude pontuações de match por sinal com citações. Qualquer sinal de intenção único requer um sinal primário corroborativo — uma mudança de emprego no LinkedIn mais um press release, por exemplo. Afirmações de intenção de fonte única recebem pontuação 0 com razão “não corroborado” em vez de serem adivinhadas.
  5. Classifica, deduplica e grava em lote no Clay. Ordena por pontuação total, deduplica na coluna de empresa-mãe e grava as target_list_size primeiras linhas em uma nova tabela Clay em um único lote. Gravações por linha queimam créditos e deixam estado inconsistente em caso de interrupção; gravações em lote não.
  6. Produz o relatório de output. Um documento markdown com a assinatura semente no topo, a tabela de candidatos classificados, um breakdown por tipo de sinal, contagens de flags de exclusão e metadados da execução. O revisor lê isso antes de trabalhar a tabela Clay.

Realidade de custos

As grandes alavancas de custo são créditos de enriquecimento do Clay e tokens do Claude. Orçamentos aproximados por execução, ancorados em um target_list_size de 100 contra um universo firmograficamente filtrado de 1.800-2.200 candidatos:

  • Tokens Claude (extração de assinatura + pontuação por candidato). Aproximadamente 500K-700K tokens de input e 80K-120K tokens de output por execução no Claude Opus. Pelo preço de lista do Opus 4.7 isso fica em torno de US$9-14 por execução. No Claude Sonnet, o mesmo loop fica em torno de US$1,50-2,50 por execução com perda de qualidade mensurável no passo de extração de assinatura (o raciocínio de padrão de semente se beneficia do modelo maior). Recomendação: Opus no passo de assinatura, Sonnet no passo de pontuação por candidato.
  • Créditos Clay. Aproximadamente 800-1.000 créditos de enriquecimento por execução para um output de 100 linhas, assumindo 2.000 candidatos entrando no passo de enriquecimento. Pelo preço Pro do Clay isso é cerca de US$24-30 em custo de crédito por execução; no tier Explorer os créditos são mais apertados e você deve reduzir o target_list_size para 50 ou pré-filtrar mais.
  • Em escala. Uma equipe executando isso semanalmente por região (digamos, quatro pods de AE) fica em aproximadamente US$1.300-2.000 por mês combinados (US$150-200 de Claude, o restante de créditos Clay). Isso está bem abaixo do custo de um único assento do ZoomInfo SalesOS e produz uma lista mais atualizada, mas requer que o rubric e o arquivo de exclusão sejam mantidos atualizados — inputs desatualizados são onde o custo vai errado (você paga por créditos para enriquecer contas que nunca deveriam ter passado pelo Passo 1).

O padrão dominante de explosão de custo é chamar a skill repetidamente com um gate firmográfico frouxo e ver o universo de candidatos expandir. A proteção está no Passo 3: se o Clay retornar mais de 5.000 candidatos, a skill aperta uma faixa e re-executa em vez de enriquecer todo o conjunto.

Métrica de sucesso

A métrica a observar é a taxa com que os AEs aceitam a lista rascunho no seu conjunto de trabalho sem retrabalho manual. Meta: 70%+ aceitas (ou seja, de 100 candidatos classificados, pelo menos 70 entram na fila outbound de alguém sem serem deletados ou relabeled). Abaixo de 50% de aceitação, o rubric está errado, a lista semente está enviesada ou o arquivo de exclusão está desatualizado — diagnostique nessa ordem.

Secundário: taxa de reunião agendada nas contas aceitas comparada com a linha de base de lista outbound da equipe. A skill está ganhando o seu custo de crédito quando essa taxa é pelo menos igual à linha de base; o valor agregado é a redução no tempo de construção de lista, não necessariamente um lift imediato de conversão.

vs alternativas

  • vs LinkedIn Sales Navigator + filtragem manual. Sales Nav é a ferramenta certa para listas Tier-1 construídas à mão e para prospecção individual em um candidato. É a ferramenta errada para produzir 100 lookalikes classificados semanalmente — os filtros de busca salva não capturam sinais de intenção, e o tempo de filtragem manual por lista é aproximadamente 3-5 horas por semana de um SDR. Esta skill substitui essas 3-5 horas por uma revisão de 5 minutos de um rascunho classificado.
  • vs ZoomInfo SalesOS Intent. SalesOS é maduro, tem bons dados de intenção em contas enterprise e é a resposta certa se você tem um motion enterprise e orçamento para US$35K-80K por ano de assentos. Para um motion mid-market em uma equipe menor, esta skill mais Clay Pro é aproximadamente 80% do sinal a 5-10% do custo, com o trade-off de que você é dono do rubric e da lista de exclusão em vez de depender da pontuação de um fornecedor.
  • vs Apollo Living Data. O feature de lookalike do Apollo é o mais próximo em forma desta skill e é um clique em vez de uma configuração de 45 minutos. A pontuação de lookalike do Apollo é opaca (você não consegue ver os pesos de sinal nem sobrescrevê-los) e os outputs tendem a ponderar demais a similaridade firmográfica. Esta skill torna o rubric e os pesos inspecionáveis e força corroboração por sinal; o custo é o tempo de configuração e o requisito de manter os arquivos de referência atualizados.
  • vs nada (status quo, AE constrói a lista). Listas construídas por AE são abrangentes nas contas conhecidas do AE e fracas nos lookalikes que o AE não ouviu falar. Esta skill é o oposto — é ruim em contas estratégicas nomeadas e boa em surfacear os próximos 100 lookalikes. O padrão honesto é executar ambos em paralelo: AE é dono da lista nomeada, a skill produz o rascunho de lookalike.

Pontos de atenção

  • Dados firmográficos ruins de fontes públicas. Os números de headcount e receita dos agregadores atrasam a realidade em 6-18 meses e estão errados em 30-50% para empresas em estágio de crescimento. Proteção: a skill trata qualquer fonte firmográfica única como direcional e requer concordância entre duas fontes independentes antes de aplicar um gate rígido. Conflitos aparecem no relatório de output (“LinkedIn diz 120, BuiltWith diz 380 — sinalizado para revisão manual”) em vez de serem resolvidos silenciosamente.
  • Ruído de sinal de intenção. Um sinal de “contratou um VP de Vendas” extraído apenas do LinkedIn classifica erroneamente promoções, funções contratuais e inflação de título como novas contratações líquidas. Proteção: o Passo 4 requer um sinal primário corroborativo (press release, evidência do LinkedIn de segundo ângulo) antes que qualquer sinal de intenção pontue acima de 0; afirmações não corroboradas recebem pontuação 0 com a razão registrada para auditoria.
  • Envenenamento de lista por bancos de dados desatualizados. Algumas fontes de enriquecimento do Clay carregam empresas zumbis — adquiridas, fundidas ou extintas — que passam nos filtros mas não conseguem comprar. Proteção: descarte qualquer candidato cujo site retorna 4xx/5xx na verificação da página inicial, não tem atividade no LinkedIn nos últimos 90 dias ou cujo campo de empresa-mãe resolve para um adquirente conhecido no arquivo de exclusão. A contagem de descartes aparece nos metadados da execução para que o operador possa detectar um pico (sinal de que o arquivo de exclusão ou a fonte do agregador está degradando).
  • Viés de semente. Uma lista semente de 10 vitórias de um único AE em um único vertical produz uma lista que parece com o território desse AE. Proteção: a skill avisa se mais de 60% das sementes compartilham o mesmo AE, vertical ou mês de fechamento, e pede ao operador para ampliar a semente antes de continuar.
  • Overfit de filtro. Uma assinatura tão apertada que só corresponde às 14 sementes produz 0-30 candidatos e parece precisa mas é inútil. Proteção: se o Passo 3 retornar menos de 200 candidatos, a skill afrouxa as faixas de headcount e receita em uma nota e re-executa em vez de prosseguir com um universo faminto.
  • Arquivo de exclusão desatualizado. Se o export da lista de clientes tem dois meses, um cliente pode passar e acabar em outbound. Proteção: a skill avisa no relatório de output quando last_refreshed no arquivo de exclusão tem mais de 14 dias.

Stack

  • Clay (Pro ou superior) — substrato de enriquecimento, filtro firmográfico e tabela de destino. Pro é o piso prático para o loop de lookalike.
  • Claude (Opus 4.7 para extração de assinatura, Sonnet para pontuação por candidato) — raciocínio de assinatura sobre as notas why_we_won das sementes e pontuação de corroboração por sinal com citações. Dividir a seleção de modelo entre os dois passos é onde o trade de custo-qualidade fica melhor.
  • CRM (qualquer um) — fonte da lista semente, lista de clientes, lista de oportunidades e lista de closed-lost que alimenta o arquivo de exclusão. A skill não lê o CRM diretamente; o operador exporta CSVs.
  • Destino outbound (Outreach, Salesloft, Apollo, personalizado) — para onde a lista revisada vai depois da aceitação do AE. A skill para na tabela Clay por design.

Arquivos deste artefato

Baixar tudo (.zip)