ooligo
claude-skill

Preenchimento automático de due diligence de fornecedor SIG/CAIQ com o Claude

Dificuldade
intermediário
Tempo de setup
30min
Para
legal-ops · contract-manager
Legal Ops

Stack

Um Claude Skill que pega um questionário de segurança inbound — SIG, SIG-Lite, CAIQ, HECVAT ou um formato de planilha customizado — e a biblioteca de controles mapeada do seu escritório, depois rascunha o maior número de respostas possível enquanto sinaliza perguntas novas, voltadas ao futuro ou de baixa confiança para revisão da equipe de segurança. O skill produz o .xlsx original com células de respostas preenchidas mais um resumo em markdown que lista todo flag, toda citação e todo score de confiança. Deposite a biblioteca de controles uma vez; execute em todo questionário inbound a partir daí. Reduz as típicas 4-8 horas de tempo de analista por resposta de due diligence de fornecedor para uma passagem de revisão de 30-45 minutos.

Quando usar

Use este skill quando um cliente ou prospect envia um questionário de segurança inbound e você quer os 70-80% mecânicos de respostas pré-populados, citados à sua biblioteca de controles e evidências de suporte, antes que um analista de segurança assuma. A economia funciona quando o volume de questionários é alto o suficiente para que a economia de tempo por resposta se componha — tipicamente uma equipe de GRC lidando com 8+ questionários inbound por mês, onde o tempo do analista é a restrição vinculante e a biblioteca de controles já está documentada.

O skill assume que você já tem uma biblioteca de controles mapeada — todo controle indexado por seção do SOC 2, cláusula do ISO Annex A, ID de controle do CCM e função do NIST CSF, com a resposta canônica revisada por segurança e pelo jurídico. Se você ainda não tem essa biblioteca, construa primeiro. O skill amplifica uma postura de controles documentada; não inventa uma. Abaixo de aproximadamente 8 questionários por mês, o overhead de manutenção da biblioteca excede a economia e o analista deve continuar rascunhando à mão.

Quando NÃO usar

  • Submissão final ao cliente. O skill rascunha; um analista de segurança nomeado revisa toda resposta e o owner do deal assina antes de o questionário ir de volta. Auto-preencher mais auto-enviar é o modo de falha que esta regra guarda — toda resposta de questionário é uma representação contratual.
  • Qualquer coisa roteada por um fornecedor de IA não-Tier-A. O conteúdo do questionário frequentemente cita a própria arquitetura e metadados de procurement do cliente. Se o modelo configurado não está na lista de fornecedores aprovados do escritório com um DPA assinado cobrindo trabalho de programa de segurança, escale para segurança em vez de executar. O skill enforça isso como pré-condição lendo a lista de fornecedores permitidos no topo de references/3-novel-question-escalation.md.
  • Frameworks de controles novas que o escritório não mapeou. FedRAMP Moderate, IRAP, BSI C5 — se o framework não está na biblioteca, o skill vai fazer correspondência incorreta de padrões e produzir respostas confiantes mas erradas. Mapeie o framework na biblioteca primeiro, depois execute.
  • Questionários vinculados a um incidente ativo ou achado de auditoria aberto. Esses não são exercícios de rascunho. Segurança e jurídico os lidam diretamente.
  • Qualquer cliente que pediu explicitamente respostas não assistidas por IA. Honre o pedido. Alguns times de procurement exigem autoria exclusivamente humana no questionário e verificam isso.
  • Questionários de texto livre altamente customizados que citam o próprio MSA do cliente de volta para você. “Confirme que seu deployment corresponde ao Schedule 3” é uma pergunta do time de deal, não uma pergunta de controles. O skill sinaliza essas por padrão em vez de adivinhar sobre linguagem contratual específica do cliente.

Setup

  1. Faça o drop do bundle. Coloque o conteúdo de apps/web/public/artifacts/vendor-dd-questionnaire-skill/ no seu diretório de skills do Claude Code (~/.claude/skills/vendor-dd-questionnaire/) ou faça upload da pasta para um projeto do Claude.ai. O skill expõe um ponto de entrada: passe-o o questionário inbound e ele retorna o .xlsx preenchido mais um resumo em markdown.
  2. Substitua os templates. O bundle inclui três arquivos de template em references/. Substitua cada um pelo conteúdo real do seu escritório antes da primeira execução:
    • references/1-control-library-template.md — sua biblioteca de controles mapeada, indexada por framework, com respostas canônicas e IDs de evidências de suporte. Este é o arquivo contra o qual o skill faz a correspondência de toda pergunta; sem seus controles reais, toda resposta é genérica.
    • references/2-answer-format-reference.md — os formatos de resposta literais por tipo de resposta (Sim/Não, Sim/Não-com-descrição, descritivo, upload-de-documento, referência-de-certificação, N/A). Substitua as frases de exemplo pelo estilo da sua casa.
    • references/3-novel-question-escalation.md — as regras que decidem quando uma pergunta roteia para um analista de segurança em vez de obter uma resposta rascunhada. Criticamente, também é aqui que você lista os fornecedores de IA autorizados para trabalho de programa de segurança — o skill recusa executar de outra forma.
  3. Construa o índice de evidências. Mantenha uma lista de documentos de evidências de suporte (relatório SOC 2, certificado ISO, sumário de pentest, BCP, plano de IR, lista de sub-processadores) com um ID por documento e uma data effective_through. O skill cita IDs nas respostas; o analista lida com a entrega real de documentos pelo trust center do escritório com gate de NDA, nunca anexando docs ao arquivo do questionário.
  4. Teste num questionário conhecido. Execute o skill num SIG-Lite ou CAIQ que você já completou manualmente. Faça um diff das respostas auto-preenchidas contra suas respostas manuais. Ajuste a biblioteca de controles onde o skill perde correspondências óbvias; ajuste a referência de formato de resposta onde o wording parece forçado. Duas ou três iterações chegam a uma linha de base estável.
  5. Conecte ao intake. Quando um novo questionário chega, o analista designado faz o drop do .xlsx no skill e recebe o arquivo preenchido mais o resumo em markdown de volta em aproximadamente 60 segundos. O analista abre o resumo primeiro, revisa as perguntas sinalizadas, depois percorre o .xlsx preenchido (cada célula carrega um comentário com o ID do controle, ID da evidência e confiança) antes de enviar de volta ao cliente.

O que o skill realmente faz

O skill executa quatro sub-tarefas em ordem; não são paralelizadas porque cada passo depende do contexto do anterior. O método completo, com racional de engenharia, fica em apps/web/public/artifacts/vendor-dd-questionnaire-skill/SKILL.md. Resumidamente:

  1. Classificação de perguntas. Para cada linha, identifique o tipo de resposta esperada (Sim/Não, Sim/Não-com-descrição, descritivo, upload-de-documento, referência-de-certificação, N/A), o tópico (controle de acesso, criptografia, IR, BCP, sub-processadores, etc.) e a dica de framework se a pergunta citar uma (CC6.1, A.9.4.2, CCM IAM-09). Por que classificação primeiro: o tipo de pergunta controla o formato da resposta, e tópico mais dica de framework juntos conduzem a busca na biblioteca de controles. Pular isso e deixar o modelo rascunhar livremente é a razão mais comum pela qual o auto-preenchimento produz respostas inconsistentes ou mal categorizadas.
  2. Correspondência na biblioteca de controles. Procure o controle correspondente com prioridade: correspondência exata de seção do framework → tópico mais sub-tópico dentro do mesmo framework → correspondência de tópico entre frameworks → sem correspondência (sinalize para escalada, não improvise). Por que biblioteca-de-controles-primeiro em vez de improvisar a partir da documentação: as entradas da biblioteca já foram revisadas por segurança e pelo jurídico. Respostas improvisadas reintroduzem essa carga de revisão em toda execução, anulam a economia de tempo e criam risco de representação contratual.
  3. Rascunho de respostas com citações. Emita a resposta canônica no formato que a pergunta espera, carregando o ID do controle, o ID da evidência de suporte, a data last_reviewed da entrada da biblioteca e um score de confiança (alta / média / baixa). Faça correspondência de padrão contra prior_responses como um desempate apenas em correspondências borderline — nunca deixe uma resposta anterior sobrepor a biblioteca atual, porque as políticas mudam e respostas de 18 meses atrás podem estar completamente erradas.
  4. Decisão de flag para revisão. Substitua a resposta rascunhada por um bloco “precisa de revisão de segurança” para qualquer pergunta correspondendo às regras em references/3-novel-question-escalation.md: framework não mapeado, compromisso voltado ao futuro, pergunta específica a incidente, referência de arquitetura ou contrato específica do cliente, correspondência de baixa confiança ou divergência de uma resposta anterior recente.

Realidade de custos

Custo de tokens por questionário e economia de tempo do analista por resposta, com números concretos:

  • SIG-Lite típico (~150 perguntas, ~20k tokens de texto de pergunta). Input ~30k tokens (questionário + biblioteca de controles + referência de formato de resposta + critérios de escalada), output ~15k tokens (respostas rascunhadas com citações + resumo). Ao preço do Claude Sonnet 4.5 ($3 / MTok input, $15 / MTok output), isso é aproximadamente $0,32 por questionário.
  • SIG completo típico (~800 perguntas, ~80k tokens). Input ~95k tokens, output ~60k tokens. Aproximadamente $1,20 por questionário.
  • CAIQ v4 típico (~260 perguntas, ~30k tokens). Input ~42k tokens, output ~22k tokens. Aproximadamente $0,45 por questionário.
  • Volume mensal de 20 questionários (10 SIG-Lite + 8 CAIQ + 2 SIG completo). Aproximadamente $9 em custo de tokens. A economia de tempo do analista domina: uma linha de base de 4-8 horas por questionário caindo para 30-45 minutos de revisão é um tempo recuperado de 70-90 horas de analista por mês naquele volume. Uma hora de analista a $120/hr totalmente carregado cobre ~370 questionários de custo do skill.

O custo real é a manutenção da biblioteca. O time de segurança precisa manter references/1-control-library-template.md atual e o índice de evidências atual. Orce duas horas de tempo de engenheiro de segurança sênior por trimestre para atualizar a biblioteca, mais uma hora por trimestre para triar padrões de escalada e dobrar perguntas recorrentes fora da biblioteca de volta para ela. A staleness da biblioteca é o modo de falha que silenciosamente destrói a qualidade do output — o skill felizmente emite respostas stale com alta confiança se a biblioteca mentir sobre estar atual.

Métrica de sucesso

Duas métricas, observadas juntas, dizem se o skill está valendo a pena:

  • Redução de cycle-time na resposta ao questionário. Linha de base: tempo médio desde intake do questionário até “pronto para aprovação do owner do deal”. Meta: reduza a mediana em 70-85%. Uma equipe com linha de base de 6 horas por questionário deve chegar a 45-90 minutos (o skill produz em ~60 segundos; a revisão do analista leva o resto).
  • Taxa de flags por questionário. Faixa meta: 15-30% das perguntas sinalizadas para revisão do analista. Abaixo de 10% significa que a biblioteca é muito permissiva — o skill está aprovando sem critério correspondências de baixa confiança como respostas de alta confiança. Acima de 40% significa que a biblioteca não cobre terreno suficiente e o skill está principalmente produzindo flags. Ou ajuste a biblioteca ou descarte o skill naquele tipo de questionário até que a cobertura melhore.

Um terceiro indicador líder que vale observar: taxa de follow-up do cliente por pergunta. Se tipos específicos de perguntas consistentemente atraem um “por favor esclareça” do cliente, a resposta canônica na biblioteca está pouco clara ou mal citada. Rastreie quais perguntas atraem follow-ups e reescreva essas entradas da biblioteca primeiro.

Versus as alternativas

A decisão é entre este skill, automação de questionários construída pelo fornecedor e o status quo manual escrito pelo time de segurança:

  • Versus Vanta Questionnaires ou Drata Trust. São produtos SaaS de fornecedor empacotados com plataformas GRC mais amplas. Vencem quando você já usa Vanta ou Drata para monitoramento de compliance (as respostas e evidências já estão na plataforma), quando quer um trust center voltado ao cliente como parte do produto, e em velocidade de deployment se sua biblioteca de controles já está na forma estruturada da plataforma. Perdem quando sua postura de controles tem nuances incomuns que o banco de perguntas da plataforma não cobre, quando quer transparência em nível de token em cada resposta (o skill cita seus IDs de seção da biblioteca; os fornecedores citam seu mapeamento interno) e no preço (os tiers da plataforma rodam em milhares por mês vs o custo de tokens do skill de aproximadamente $9/mês mais amortização de tempo do analista).
  • Versus HyperComply ou Conveyor. Automação de questionários por IA como serviço gerenciado. Vencem em esforço zero de deployment e na garantia de nível de serviço em torno do tempo de resposta. Perdem em auditabilidade por resposta (as respostas saem do modelo do fornecedor, não da sua biblioteca) e no modelo de privilégio (sua biblioteca de controles vive no sistema do fornecedor, não no seu repo onde segurança e jurídico a revisam). Escolha um desses se quiser questionários totalmente fora do prato da equipe interna e aceitar o trade em auditabilidade.
  • Versus respostas escritas manualmente pelo time de segurança. O status quo na maioria dos escritórios. Qualidade mais alta em perguntas novas (humanos fazem correspondência de padrão melhor em wording estranho), custo muito mais alto por questionário, resposta mais lenta. O skill não é um substituto para o analista — desloca o tempo do analista de digitar-e-procurar para julgamento-e-revisão.

O ponto ideal do Claude Skill é o escritório de volume médio com uma biblioteca de controles bem documentada e um time de segurança que quer IA na primeira passagem mas espera revisão do analista em todo output e exige que toda resposta rastreie a um controle documentado. Se você não consegue apontar para a entrada da biblioteca por trás de uma resposta, a resposta não é enviada.

Pontos de atenção

  • Biblioteca de controles stale produz respostas confiantes mas erradas. Um relatório SOC 2 Type II de 2024 citado como evidência em 2026 será rejeitado por qualquer cliente sofisticado. Guarda: o cabeçalho do resumo de todo output escreve a data last_reviewed da biblioteca e a data de vigência de todo documento de evidência citado. O analista rejeita qualquer rascunho onde a biblioteca tem mais de 90 dias, atualiza e re-executa. O limite de 90 dias está escrito explicitamente em references/3-novel-question-escalation.md como um trigger suave de escalada para que o skill em si sinalize respostas borderline-stale.
  • Improvisação de respostas quando a biblioteca não faz correspondência. Um modelo sob pressão para “preencher a célula” vai rascunhar livremente uma resposta plausível. Guarda: a passagem de correspondência emite sem correspondência → flag explícito em vez de degradar graciosamente. O skill recusa escrever uma célula sem um ID de controle; células sem citação aparecem no resumo como sinalizadas-para-revisão, nunca como respostas rascunhadas. Se você vir respostas rascunhadas sem citações, o bundle foi editado — reinstale-o.
  • Expiração de certificação tratada silenciosamente. Um SOC 2 citado como atual pode ter expirado entre a última atualização da biblioteca e hoje. Guarda: o índice de evidências carrega effective_through por documento. Se hoje é posterior a effective_through, o skill descarta a citação da evidência e rebaixa a resposta para confiança baixa com uma nota “cert em renovação”. O analista busca a cert renovada antes de o questionário ir de volta.
  • Compromissos voltados ao futuro tratados como fatos. “Você vai suportar chaves gerenciadas pelo cliente até o Q4?” é uma pergunta de roadmap, não uma pergunta de controles. Rascunhada como Sim/Não, torna-se uma representação contratual. Guarda: references/3-novel-question-escalation.md lista os padrões linguísticos (“você vai”, “você planeja”, “até que data”) que forçam um flag-para-revisão independentemente da confiança. Respostas de roadmap sempre passam por produto e jurídico, nunca pelo skill sozinho.
  • Drift de correspondência de padrão de respostas anteriores. A resposta do ano passado dizia “rotação de chave de 365 dias”; a política deste ano diz 90 dias. Reutilizar a resposta anterior cria uma representação contratual incorreta. Guarda: correspondência de resposta anterior é apenas um desempate, nunca um override. Quando uma resposta anterior difere da entrada atual da biblioteca, o skill surfaceia a divergência no resumo para que o analista possa vê-la antes de ir de volta.
  • Vazamento de privilégio por fornecedores não-Tier-A. O conteúdo do questionário é simultaneamente confidencial ao escritório e confidencial ao cliente. Guarda: o skill recusa executar a menos que o modelo configurado apareça na lista de fornecedores permitidos no topo de references/3-novel-question-escalation.md. Pré-condição rígida; nenhum flag de CLI ignora isso.

Stack

  • Claude — runtime do Skill (Claude Code ou Claude.ai com Skills personalizados habilitados).
  • O stack GRC existente do escritório (Vanta, Drata, OneTrust, Whistic ou similar) — sistema de registro para a biblioteca de controles e índice de evidências que o skill lê. O skill não substitui a plataforma GRC; fica em cima dos mesmos dados de fonte da verdade.
  • Microsoft Excel — para abrir o .xlsx preenchido. Comentários por célula carregam o ID do controle, ID da evidência e score de confiança para que o analista possa auditar sem voltar ao resumo em markdown.
  • Trust center ou portal de evidências com gate de NDA do escritório — para entregar documentos de evidências que o skill cita por ID. Documentos nunca são anexados diretamente ao arquivo do questionário.

Arquivos deste artefato

Baixar tudo (.zip)