ooligo
claude-skill

Auto-Ausfüllen von SIG/CAIQ Vendor Due Diligence mit Claude

Difficulty
Fortgeschritten
Setup time
30min
For
legal-ops · contract-manager
Legal Ops

Stack

Ein Claude Skill, der einen eingehenden Sicherheitsfragebogen — SIG, SIG-Lite, CAIQ, HECVAT oder ein benutzerdefiniertes Tabellenformat — und die zugeordnete Control-Bibliothek Ihres Unternehmens nimmt, dann so viele Antworten wie möglich entwirft und dabei neuartige, zukunftsgerichtete oder niedrig-konfidente Fragen für die Überprüfung durch das Sicherheitsteam flaggt. Der Skill produziert das Original-.xlsx mit befüllten Antwortzellen plus eine Markdown-Zusammenfassung, die jeden Flag, jedes Zitat und jeden Konfidenzwert auflistet. Control-Bibliothek einmalig einlegen; dann bei jedem eingehenden Fragebogen ausführen. Reduziert die typischen 4-8 Stunden Analysten-Zeit pro Vendor Due Diligence-Antwort auf einen 30-45-Minuten-Review-Durchgang.

Wann verwenden

Verwenden Sie diesen Skill, wenn ein Kunde oder Prospect einen eingehenden Sicherheitsfragebogen sendet und Sie die mechanischen 70-80% der Antworten vorausgefüllt, zitiert aus Ihrer Control-Bibliothek und unterstützenden Belegen, haben möchten, bevor ein Sicherheitsanalyst übernimmt. Die Wirtschaftlichkeit funktioniert, wenn das Fragebogenvolumen hoch genug ist, dass die pro-Antwort-Zeitersparnis sich zusammensetzt — typischerweise ein GRC-Team, das 8+ eingehende Fragebögen pro Monat bearbeitet, wo die Analysten-Zeit die bindende Einschränkung ist und die Control-Bibliothek bereits dokumentiert ist.

Der Skill geht davon aus, dass Sie bereits eine zugeordnete Control-Bibliothek haben — jede Control nach SOC 2-Abschnitt, ISO-Anhang-A-Klausel, CCM-Control-ID und NIST-CSF-Funktion indexiert, mit der kanonischen Antwort, die von Sicherheit und Legal geprüft wurde. Wenn Sie diese Bibliothek noch nicht haben, bauen Sie sie zuerst auf. Der Skill verstärkt eine dokumentierte Control-Haltung; er erfindet keine. Unter ca. 8 Fragebögen pro Monat übersteigt der Bibliotheks-Wartungsaufwand die Einsparung, und der Analyst sollte weiterhin manuell entwerfen.

Wann NICHT verwenden

  • Endgültige Einreichung an den Kunden. Der Skill entwirft; ein benannter Sicherheitsanalyst überprüft jede Antwort, und der Deal-Owner zeichnet ab, bevor der Fragebogen zurückgeht. Auto-Ausfüllen plus Auto-Senden ist der Fehlermodus, gegen den diese Regel schützt — jede Fragebogenantwort ist eine vertragliche Darstellung.
  • Alles, was über einen Nicht-Tier-A-KI-Anbieter geleitet wird. Fragebogeninhalt zitiert oft die eigene Architektur und Beschaffungsmetadaten des Kunden. Wenn das konfigurierte Modell nicht auf der genehmigten Anbieterliste des Unternehmens mit einem unterschriebenen DPA für Sicherheitsprogramm-Arbeit steht, eskalieren Sie stattdessen zu Sicherheit. Der Skill erzwingt dies als Vorbedingung, indem er die Erlaubt-Anbieterliste am Anfang von references/3-novel-question-escalation.md liest.
  • Neuartige Control-Frameworks, die das Unternehmen nicht zugeordnet hat. FedRAMP Moderate, IRAP, BSI C5 — wenn das Framework nicht in der Bibliothek ist, wird der Skill falsch muster-abgleichen und selbstsicher-falsche Antworten produzieren. Ordnen Sie das Framework zuerst der Bibliothek zu, dann ausführen.
  • Fragebögen im Zusammenhang mit einem aktiven Vorfall oder offenen Audit-Befund. Das sind keine Entwurfsübungen. Sicherheit und Legal behandeln sie direkt.
  • Jeder Kunde, der explizit um nicht-KI-unterstützte Antworten gebeten hat. Ehren Sie die Anfrage. Einige Beschaffungsteams erfordern nur-menschliche Urheberschaft beim Fragebogen und überprüfen darauf.
  • Stark angepasste Freitext-Fragebögen, die den eigenen MSA des Kunden zurückzitieren. „Bestätigen Sie, dass Ihr Deployment Schedule 3 entspricht” ist eine Deal-Team-Frage, keine Control-Frage. Der Skill flaggt diese standardmäßig, anstatt kundenspeifische Vertragssprache zu erraten.

Einrichtung

  1. Bundle ablegen. Platzieren Sie den Inhalt von apps/web/public/artifacts/vendor-dd-questionnaire-skill/ in Ihrem Claude Code Skills-Verzeichnis (~/.claude/skills/vendor-dd-questionnaire/) oder laden Sie den Ordner in ein Claude.ai-Projekt hoch. Der Skill stellt einen Einstiegspunkt bereit: Übergeben Sie ihm den eingehenden Fragebogen und er gibt das befüllte .xlsx plus eine Markdown-Zusammenfassung zurück.
  2. Vorlagen ersetzen. Das Bundle wird mit drei Vorlagendateien in references/ geliefert. Ersetzen Sie jede durch den tatsächlichen Inhalt Ihres Unternehmens vor dem ersten Lauf:
    • references/1-control-library-template.md — Ihre zugeordnete Control-Bibliothek, nach Framework indexiert, mit kanonischen Antworten und unterstützenden Beleg-IDs. Das ist die Datei, gegen die der Skill jede Frage abgleicht; ohne Ihre echten Controls ist jede Antwort generisch.
    • references/2-answer-format-reference.md — die wörtlichen Antwortformate pro Antworttyp (Ja/Nein, Ja/Nein-mit-Beschreibung, beschreibend, Dokument-Upload, Zertifizierungsreferenz, N/A). Ersetzen Sie Beispielformulierungen durch Ihren Hausstandard.
    • references/3-novel-question-escalation.md — die Regeln, die entscheiden, wann eine Frage an einen Sicherheitsanalysten weitergeleitet wird, anstatt eine entworfene Antwort zu erhalten. Wichtig: Hier listen Sie auch die KI-Anbieter auf, die für Sicherheitsprogramm-Arbeit autorisiert sind — der Skill verweigert die Ausführung sonst.
  3. Beleg-Index aufbauen. Pflegen Sie eine Liste unterstützender Belege (SOC 2-Bericht, ISO-Zertifikat, Pen-Test-Zusammenfassung, BCP, IR-Plan, Sub-Prozessor-Liste) mit einer ID pro Dokument und einem effective_through-Datum. Der Skill zitiert IDs in Antworten; der Analyst verarbeitet die eigentliche Dokumentlieferung durch das NDA-gesicherte Trust-Center des Unternehmens, niemals durch direktes Anhängen von Dokumenten an die Fragebogendatei.
  4. Auf einem bekannten Fragebogen testen. Führen Sie den Skill auf einem SIG-Lite oder CAIQ aus, den Sie bereits manuell ausgefüllt haben. Vergleichen Sie die automatisch ausgefüllten Antworten mit Ihren manuellen Antworten. Passen Sie die Control-Bibliothek an, wo der Skill offensichtliche Übereinstimmungen verfehlt; passen Sie die Antwortformat-Referenz an, wo die Formulierung steif wirkt. Zwei oder drei Iterationen führen zu einer stabilen Baseline.
  5. Mit Intake verdrahten. Wenn ein neuer Fragebogen ankommt, legt der zugewiesene Analyst die .xlsx in den Skill und bekommt die befüllte Datei plus die Markdown-Zusammenfassung in ca. 60 Sekunden zurück. Der Analyst öffnet zuerst die Zusammenfassung, überprüft flaggte Fragen und geht dann das befüllte .xlsx durch (jede Zelle trägt einen Kommentar mit der Control-ID, Beleg-ID und Konfidenz), bevor er an den Kunden zurücksendet.

Was der Skill tatsächlich tut

Der Skill führt vier Unteraufgaben in Reihenfolge aus; sie werden nicht parallelisiert, weil jeder Schritt vom Kontext des vorherigen abhängt. Die vollständige Methode, mit technischem Begründung, befindet sich in apps/web/public/artifacts/vendor-dd-questionnaire-skill/SKILL.md. Kurz:

  1. Fragenklassifizierung. Für jede Zeile den erwarteten Antworttyp identifizieren (Ja/Nein, Ja/Nein-mit-Beschreibung, beschreibend, Dokument-Upload, Zertifizierungsreferenz, N/A), das Thema (Zugriffskontrolle, Verschlüsselung, IR, BCP, Sub-Prozessoren usw.) und den Framework-Hinweis, wenn die Frage einen zitiert (CC6.1, A.9.4.2, CCM IAM-09). Warum zuerst klassifizieren: Fragetyp steuert das Antwortformat, und Thema plus Framework-Hinweis zusammen treiben die Control-Bibliotheks-Suche. Diesen Schritt überspringen und das Modell frei entwerfen lassen ist der häufigste Grund, warum Auto-Ausfüllen inkonsistente oder falsch kategorisierte Antworten produziert.
  2. Control-Bibliotheks-Matching. Die passende Control mit Priorität suchen: exakte Framework-Abschnittsübereinstimmung → Thema plus Unterthema innerhalb desselben Frameworks → cross-framework-Themenübereinstimmung → keine Übereinstimmung (für Eskalation flaggen, nicht improvisieren). Warum zuerst Control-Bibliothek statt aus Dokumentation zu improvisieren: Bibliothekseinträge wurden bereits von Sicherheit und Legal überprüft. Improvisierte Antworten führen diesen Review-Aufwand bei jedem Lauf wieder ein, beseitigen die Zeitersparnis und erzeugen vertragliches Darstellungsrisiko.
  3. Antwortentwurf mit Zitaten. Die kanonische Antwort im von der Frage erwarteten Format ausgeben, mit der Control-ID, der unterstützenden Beleg-ID, dem last_reviewed-Datum des Bibliothekseintrags und einem Konfidenzwert (hoch / mittel / niedrig). Gegen prior_responses als Tie-Breaker nur bei Grenzübereinstimmungen abgleichen — lassen Sie niemals eine frühere Antwort die aktuelle Bibliothek überschreiben, weil sich Richtlinien ändern und 18 Monate alte Antworten schlicht falsch sein können.
  4. Review-Flag-Entscheidung. Die entworfene Antwort durch einen „Benötigt Sicherheitsüberprüfung”-Block für jede Frage ersetzen, die den Regeln in references/3-novel-question-escalation.md entspricht: Framework nicht zugeordnet, zukunftsgerichtete Verpflichtung, vorfallspezifische Frage, kundenspeifische Architektur- oder Vertragsreferenz, niedrig-konfidente Übereinstimmung oder Abweichung von einer aktuellen früheren Antwort.

Kostenrealität

Token-Kosten pro Fragebogen und Analysten-Zeit-Einsparung pro Antwort, mit konkreten Zahlen:

  • Typischer SIG-Lite (~150 Fragen, ~20k Token Fragetext). Eingabe ~30k Token (Fragebogen + Control-Bibliothek + Antwortformat-Referenz + Eskalationskriterien), Ausgabe ~15k Token (entworfene Antworten mit Zitaten + Zusammenfassung). Bei Claude Sonnet 4.5-Preisen (3 $ / MTok Eingabe, 15 $ / MTok Ausgabe) sind das ca. 0,32 $ pro Fragebogen.
  • Typischer vollständiger SIG (~800 Fragen, ~80k Token). Eingabe ~95k Token, Ausgabe ~60k Token. Ca. 1,20 $ pro Fragebogen.
  • Typischer CAIQ v4 (~260 Fragen, ~30k Token). Eingabe ~42k Token, Ausgabe ~22k Token. Ca. 0,45 $ pro Fragebogen.
  • Monatliche Laufrate bei 20 Fragebögen (10 SIG-Lite + 8 CAIQ + 2 vollständige SIG). Ca. 9 $ an Token-Kosten. Die Analysten-Zeit-Einsparung überwiegt sie: Eine Baseline von 4-8 Stunden pro Fragebogen, die auf 30-45 Minuten Review sinkt, sind 70-90 Stunden Analysten-Zeit zurückgewonnen pro Monat bei diesem Volumen. Eine Analysten-Stunde bei 120 $ voll belastet deckt ~370 Fragebögen an Skill-Kosten.

Die echten Kosten sind die Bibliotheks-Wartung. Sicherheit muss references/1-control-library-template.md und den Beleg-Index aktuell halten. Budgetieren Sie zwei Stunden Senior-Security-Engineer-Zeit pro Quartal, um die Bibliothek zu aktualisieren, plus eine Stunde pro Quartal, um Eskalationsmuster zu triagieren und wiederkehrende Nicht-in-Bibliothek-Fragen in die Bibliothek zurückzufalten. Bibliotheks-Veralterung ist der Fehlermodus, der die Ausgabequalität still zerstört — der Skill gibt gerne veraltete Antworten mit hoher Konfidenz aus, wenn die Bibliothek über ihre Aktualität lügt.

Erfolgsmetrik

Zwei Metriken, zusammen beobachtet, zeigen Ihnen, ob der Skill seinen Zweck erfüllt:

  • Zykluszeit-Reduktion bei der Fragebogen-Antwort. Baseline: mediane Zeit von Fragebogen-Eingang bis „bereit für Deal-Owner-Abzeichnen”. Ziel: Median um 70-85% reduzieren. Ein Team mit einer Baseline von 6 Stunden pro Fragebogen sollte bei 45-90 Minuten landen (der Skill produziert in ~60 Sekunden; Analysten-Review nimmt den Rest).
  • Flag-Rate pro Fragebogen. Zielband: 15-30% der Fragen für Analysten-Review geflaggt. Unter 10% bedeutet, dass die Bibliothek zu permissiv ist — der Skill stempelt niedrig-konfidente Übereinstimmungen als hoch-konfidente Antworten. Über 40% bedeutet, dass die Bibliothek nicht genug abdeckt und der Skill hauptsächlich Flags produziert. Passen Sie entweder die Bibliothek an oder lassen Sie den Skill bei diesem Fragebogentyp, bis die Abdeckung verbessert.

Ein dritter Vorlaufindikator, den es sich lohnt zu beobachten: Kunden-Follow-up-Rate pro Frage. Wenn bestimmte Fragetypen konsistent das „Bitte erläutern Sie”-Follow-up eines Kunden erhalten, ist die kanonische Antwort in der Bibliothek unklar oder zu wenig zitiert. Verfolgen Sie, welche Fragen Follow-ups erhalten, und überarbeiten Sie zuerst diese Bibliothekseinträge.

vs. Alternativen

Die Entscheidung liegt zwischen diesem Skill, Anbieter-basierten Fragebogen-Automatisierungen und dem manuellen Sicherheitsteam-geschriebenen Status quo:

  • vs. Vanta Questionnaires oder Drata Trust. Das sind Anbieter-SaaS-Produkte, die mit breiteren GRC-Plattformen gebündelt sind. Sie gewinnen, wenn Sie bereits Vanta oder Drata für Compliance-Monitoring verwenden (Antworten und Belege sind bereits in der Plattform), wenn Sie ein kundenseitiges Trust-Center als Teil des Produkts möchten, und bei Bereitstellungsgeschwindigkeit, wenn Ihre Control-Bibliothek bereits in der strukturierten Form der Plattform vorliegt. Sie verlieren, wenn Ihre Control-Haltung ungewöhnliche Nuancen hat, die die Fragenbank der Plattform nicht abdeckt, wenn Sie Token-Level-Transparenz zu jeder Antwort wollen (der Skill zitiert Ihre Bibliotheksabschnitts-IDs; Anbieter zitieren ihr internes Mapping), und beim Preis (Plattform-Tiers laufen in Tausenden pro Monat vs. den ca. 9 $/Monat Token-Kosten des Skills plus Analysten-Zeit-Amortisierung).
  • vs. HyperComply oder Conveyor. KI-native Fragebogen-Automatisierung als verwalteter Service. Sie gewinnen bei null Bereitstellungsaufwand und beim Service-Level-Garantie rund um die Bearbeitungszeit. Sie verlieren bei per-Antwort-Überprüfbarkeit (Antworten kommen aus dem Modell des Anbieters, nicht aus Ihrer Bibliothek) und beim Privilege-Modell (Ihre Control-Bibliothek lebt in einem Anbietersystem, nicht in Ihrem Repo, wo Sicherheit und Legal sie überprüfen). Wählen Sie einen davon, wenn Sie Fragebögen vollständig vom in-house Team abnehmen möchten und den Trade bei der Überprüfbarkeit akzeptieren.
  • vs. manuell vom Sicherheitsteam geschriebene Antworten. Der Status quo in den meisten Unternehmen. Höhere Qualität bei neuartigen Fragen (Menschen muster-gleichen besser bei merkwürdiger Formulierung), viel höhere Kosten pro Fragebogen, langsamere Bearbeitungszeit. Der Skill ist kein Ersatz für den Analysten — er verschiebt die Zeit des Analysten vom Tippen-und-Nachschlagen zum Urteilen-und-Überprüfen.

Der Claude Skill Sweet Spot ist das mittelvolumige Unternehmen mit einer gut dokumentierten Control-Bibliothek und einem Sicherheitsteam, das KI den ersten Durchgang machen lassen möchte, aber Analysten-Review bei jeder Ausgabe erwartet und darauf besteht, dass jede Antwort auf eine dokumentierte Control zurückführbar ist. Wenn Sie nicht auf den Bibliothekseintrag hinter einer Antwort zeigen können, geht die Antwort nicht raus.

Fallstricke

  • Veraltete Control-Bibliothek produziert selbstsicher-falsche Antworten. Ein SOC 2 Type II-Bericht von 2024, der als Beleg in 2026 zitiert wird, wird von jedem anspruchsvollen Kunden abgelehnt. Guard: Die Zusammenfassungskopfzeile jeder Ausgabe schreibt das last_reviewed-Datum der Bibliothek und das Ablaufdatum jedes zitierten Belegdokuments. Der Analyst lehnt jeden Entwurf ab, bei dem die Bibliothek älter als 90 Tage ist, aktualisiert und führt erneut aus. Der 90-Tage-Schwellenwert ist explizit in references/3-novel-question-escalation.md als weicher Eskalationsauslöser geschrieben, sodass der Skill selbst grenzwertig veraltete Antworten flaggt.
  • Antwort-Improvisation, wenn die Bibliothek nicht übereinstimmt. Ein Modell unter Druck, „die Zelle zu füllen”, wird frei einen plausibel klingenden Text entwerfen. Guard: Der Matching-Durchgang gibt explizit no match → flag aus statt graceful degrading. Der Skill weigert sich, eine Zelle ohne Control-ID zu schreiben; Zellen ohne Zitat erscheinen in der Zusammenfassung als für-Review-geflaggt, niemals als entworfene Antworten. Wenn Sie entworfene Antworten ohne Zitate sehen, wurde das Bundle bearbeitet — installieren Sie es neu.
  • Zertifizierungs-Ablauf wird stillschweigend gehandhabt. Ein SOC 2, der als aktuell zitiert wird, kann zwischen der letzten Bibliotheks-Aktualisierung und heute abgelaufen sein. Guard: Der Beleg-Index trägt effective_through pro Dokument. Wenn heute nach effective_through ist, lässt der Skill das Beleg-Zitat fallen und stuft die Antwort auf low-Konfidenz mit einem „cert in renewal”-Hinweis herab. Der Analyst jagt das erneuerte Zertifikat, bevor der Fragebogen zurückgeht.
  • Zukunftsgerichtete Verpflichtungen werden als Fakten behandelt. „Werden Sie bis Q4 kundenseitig verwaltete Keys unterstützen?” ist eine Roadmap-Frage, keine Control-Frage. Als Ja/Nein entworfene wird sie zu einer vertraglichen Darstellung. Guard: references/3-novel-question-escalation.md listet die sprachlichen Muster auf („werden Sie”, „planen Sie”, „bis wann”), die unabhängig von der Konfidenz einen Flag-für-Review erzwingen. Roadmap-Antworten durchlaufen immer Produkt und Legal, niemals allein den Skill.
  • Muster-Match-Drift aus früheren Antworten. Die Antwort des letzten Jahres lautete „365-Tage-Key-Rotation”; die diesjährige Richtlinie lautet 90 Tage. Die frühere Antwort zu verwenden schafft eine vertragliche Fehlerdarstellung. Guard: Frühere-Antwort-Matching ist nur ein Tie-Breaker, niemals ein Override. Wenn eine frühere Antwort vom aktuellen Bibliothekseintrag abweicht, zeigt der Skill die Abweichung in der Zusammenfassung, sodass der Analyst sie sehen kann, bevor sie zurückgeht.
  • Privilege-Leak über Nicht-Tier-A-Anbieter. Fragebogeninhalt ist gleichzeitig unternehmensvertraulich und kundenvertraulich. Guard: Der Skill verweigert die Ausführung, es sei denn, das konfigurierte Modell erscheint in der Erlaubt-Anbieterliste am Anfang von references/3-novel-question-escalation.md. Harte Vorbedingung; kein CLI-Flag umgeht sie.

Stack

  • Claude — Skill-Laufzeitumgebung (Claude Code oder Claude.ai mit aktivierten benutzerdefinierten Skills).
  • Der vorhandene GRC-Stack des Unternehmens (Vanta, Drata, OneTrust, Whistic oder ähnliches) — System of Record für die Control-Bibliothek und den Beleg-Index, den der Skill liest. Der Skill ersetzt die GRC-Plattform nicht; er sitzt auf denselben Source-of-Truth-Daten.
  • Microsoft Excel — zum Öffnen des befüllten .xlsx. Per-Zellen-Kommentare tragen die Control-ID, Beleg-ID und den Konfidenzwert, sodass der Analyst ohne Zurückblättern zur Markdown-Zusammenfassung prüfen kann.
  • Das NDA-gesicherte Trust-Center oder Beleg-Portal des Unternehmens — für die Lieferung von Belegdokumenten, die der Skill per ID zitiert. Dokumente werden niemals direkt an die Fragebogendatei angehängt.

Files in this artifact

Download all (.zip)