ooligo
claude-skill

Revisión de pricing del deal desk con Claude

Dificultad
intermedio
Tiempo de setup
60min
Para
revops · deal-desk
RevOps

Stack

Una Claude Skill que revisa un deal no estándar contra tu rúbrica de descuentos y tu historial de deals comparables, y luego devuelve una recomendación estructurada en Markdown: el counter recomendado, las secciones de la rúbrica que lo justifican, los análogos históricos que lo respaldan y un flag explícito de escalation cuando la pedida queda fuera de lo que cubre la rúbrica. La skill es decision support para el reviewer del deal desk; nunca auto-aprueba, nunca auto-descuenta y nunca sustituye al aprobador nombrado en la matriz DOA. Existe para acortar el tiempo entre “el AE envió la pedida” y “el reviewer tiene el contexto para counterar inteligentemente” — típicamente de días a minutos para pedidas rutinarias — sin quitarle la decisión al humano.

El bundle del artefacto vive en /artifacts/deal-desk-pricing-skill/: el SKILL.md es el punto de entrada y los tres archivos bajo references/ son el scaffolding editable que la skill carga en cada corrida — la rúbrica de descuentos, el schema de deals comparables y los criterios de escalation que la skill chequea antes de renderizar.

Cuándo usar

Pon esta skill cuando un AE envíe una pedida de pricing no estándar y un reviewer del deal desk tenga que decidir con qué counterar:

  • Una pedida de descuento multianual que apila incentivo de term encima de un descuento de volumen.
  • Un swap de pago upfront-por-descuento o una concesión de pago a Net-60/Net-90.
  • Una estructura de ramp (Y1 50% / Y2 100%, formas custom) que necesita que el term contractual se rechequee contra la rúbrica.
  • Un co-term contra un contrato existente donde el comprador quiere el descuento efectivo ponderado entre los contratos unidos.
  • Un deal competitivo donde el AE nombró un competidor y una fecha de cierre apretada, y el reviewer necesita los análogos que cerraron bajo presión similar.

La skill devuelve una recomendación en Markdown con el counter recomendado, las §s de rúbrica e IDs de análogo que lo justifican, y un bloque de escalation arriba que dispara cuando la pedida queda fuera de la cobertura de la rúbrica. El reviewer la lee, la edita y decide.

Cuándo NO usar

No uses esta skill — y no la cablees a nada que haga estas cosas automáticamente:

  • Aprobación final. La skill recomienda; no aprueba. La autoridad de aprobación queda con el humano nombrado en la matriz DOA (references/1-discount-rubric.md §8). El output de la skill es un input a esa decisión, no un sustituto. Cablear aprobación encima de una recomendación de LLM es exactamente el lugar equivocado para quitar un checkpoint.
  • Auto-descuento en el quote. La skill nunca escribe un descuento a un record de CPQ ni a un Salesforce Quote. Produce una recomendación que el reviewer tipea al quote (o rechaza). Auto-aplicar una recomendación de LLM a un quote vivo es el modo de falla que esta skill está diseñada para evitar.
  • Cualquier cosa que se salte la revisión humana del deal desk. Si tu equipo tiene un fast-path para deals dentro de política — un solo año, list-price, sin excepciones — corre ese fast-path por reglas de CPQ. CPQ es la herramienta correcta para enforcement determinista dentro de política; es más rápido, más barato y audit-friendly. Esta skill existe para las pedidas que necesitan juicio, y en esas pedidas saltarse al humano es exactamente el lugar equivocado para quitar un checkpoint.
  • Vendors de IA que no sean Tier-A. Corre en Claude (workspace o team plan cuya postura de manejo de data hayas revisado). Las rúbricas de pricing y los historiales de deals comparables son comercialmente sensibles; no los pases por LLMs grado consumidor.

Setup

  1. Pon el bundle. Copia /artifacts/deal-desk-pricing-skill/ en tu directorio de skills de Claude Code en ~/.claude/skills/deal-desk-pricing/ (o sube como una Skill en un proyecto de Claude.ai). El SKILL.md es el punto de entrada; Claude carga los tres archivos bajo references/ automáticamente cuando la skill corre.
  2. Codifica tu rúbrica. Edita references/1-discount-rubric.md con tus definiciones reales de segmento, tabla de term-incentive, tiers de volume-discount, límites de payment-term, formas de ramp, techos de stacked-discount y matriz DOA. Sé explícito en cada umbral. La skill aplica la rúbrica determinísticamente — lee lo que escribiste, y nada más, cuando clasifica in-policy vs exception-needed vs out-of-policy.
  3. Construye el CSV de comparable-deal. Pon un archivo hermano en references/comparable-deals.csv que cumpla con el schema en references/2-comparable-deal-format.md. Backfillea los últimos 8 trimestres de deals no estándar — incluyendo deals rechazados, perdidos y retirados, no solo won. Anonimiza los nombres de los clientes. La skill es solo tan buena como este CSV, y un CSV lleno de deals won entrena a la skill a hacer rubber-stamp.
  4. Afina los triggers de escalation. Edita references/3-escalation-criteria.md para que coincida con tu matriz DOA y tu lista de strategic-accounts. Empieza conservador (los defaults van a sobre-escalar) y afloja trimestralmente después de mirar qué se está flaggeando.
  5. Cablea a Salesforce. La skill espera un input deal_record — ya sea un JSON estructurado pegado de Salesforce, o un Salesforce Opportunity ID resuelto vía el MCP/connector preferido de tu equipo. Configura SFDC_TOKEN si invocas vía un connector. La skill misma es read-only contra Salesforce; nunca escribe de vuelta.
  6. Prueba contra tres deals que ya revisaste. Toma dos in-policy y uno exception-needed. Corre la skill, compara su recomendación contra lo que el equipo realmente counteró, y afina la rúbrica o los criterios de escalation hasta que el output de la skill se lea como el pensamiento mismo del deal desk.

Qué hace la skill en realidad

SKILL.md corre cinco pasos en orden. Las elecciones de engineering están nombradas para cada paso; la forma de dos pases — jalar comparables y cargar la rúbrica primero, luego evaluar; luego rechequear contra los triggers de escalation — es la elección de diseño load-bearing.

  1. Carga la rúbrica y jala comparables, en ese orden. La skill querea el historial de comparable-deal por los 5-10 análogos más cercanos por segmento, banda de ACV, longitud de term y contexto competitivo antes de evaluar la pedida. Jalar comparables primero previene que la recomendación se ancle en la respuesta nominal de la rúbrica. Un tier de rúbrica puede decir “10% para 3 años,” pero si los últimos ocho deals de 3 años en este segmento cerraron todos al 14-16%, la pedida está alineada con precedente incluso cuando queda fuera del tier nominal. El reviewer necesita ambas señales para counterar inteligentemente.
  2. Aplica la rúbrica determinísticamente. Cada línea del quote propuesto se camina contra la rúbrica. Para cada dimensión (descuento %, term, payment terms, ramp, co-term) la skill computa in-policy / exception-needed / out-of-policy y cita la § específica de la rúbrica. La skill no reinterpreta umbrales; renderiza el veredicto de la rúbrica con citas. Cuando la rúbrica está silenciosa, la línea dice “rubric does not address” en lugar de que la skill improvise un número.
  3. Computa el counter recomendado. Dado el veredicto de la rúbrica y la evidencia comparable, la skill produce un solo counter expresado como un delta desde la pedida del AE. Dos reglas: pega el effective price target del comprador (o aterriza dentro de dos puntos) cuando la rúbrica respalda una estructura que llega ahí; nunca recomiendes un counter que apile cada concesión disponible al techo de la rúbrica — eso es matemáticamente correcto contra la rúbrica y comercialmente terrible.
  4. Check de escalation. La recomendación renderizada se rerelee contra los criterios de escalation. Triggers duros (descuento sobre techo, term enterprise sub-12 meses, términos legales custom, customer de strategic-logo, umbral de patrón del AE) configuran escalation: required y nombran al aprobador. Evidencia delgada (menos de tres análogos) en una pedida out-of-policy también escala, con razón “outlier — insufficient analog evidence.” Los outliers van a un humano que pueda razonar sobre ellos; la skill no inventa precedente.
  5. Renderiza la recomendación estructurada. Markdown con header, bloque de escalation, tabla de ask-summary, sección de recommended-counter, tabla de evidencia de comparable-deal, racional y notas para el reviewer. Cada línea cita ya sea una § de rúbrica o un ID de análogo. El header siempre incluye “Decision support, not approval.”

Realidad de costos

El costo en tokens es la variable dominante, y escala con el tamaño de la rúbrica y el número de comparables jalados, no con el deal mismo. Una corrida típica carga una rúbrica de 2-3k tokens, jala 5-10 rows de análogo del CSV (≈ 500-1.5k tokens), recibe un deal_record de 1-2k tokens y renderiza un output de 1-2k tokens.

PerfilTokens aprox. por revisiónCosto por revisión (Sonnet)Costo por revisión (Opus)
Rúbrica compacta, 5 análogos~6k in / 1.5k out~$0.03~$0.16
Rúbrica estándar, 8 análogos~10k in / 2k out~$0.05~$0.25
Rúbrica pesada + contexto competitivo, 10 análogos~16k in / 2k out~$0.07~$0.36

El tiempo ahorrado por deal es la parte que paga la cuenta de tokens. Una pedida no estándar típica consume 30-90 minutos de tiempo de deal-desk: jalar la rúbrica, encontrar análogos en Salesforce, hacer sanity-check contra la matriz DOA, redactar el racional del counter. La skill colapsa la prep a menos de cinco minutos; el reviewer gasta el tiempo ahorrado en juicio, no en retrieval.

A un volumen típico de revops mid-market de 60 pedidas no estándar al mes (40 exception-needed, 15 out-of-policy, 5 estratégicas), el costo mensual en Sonnet anda alrededor de $3-5; en Opus alrededor de $15-25. Ambas bandas redondean a ruido contra el costo de salario de una hora de reviewer del deal desk.

Métrica de éxito

Sigue dos métricas. Deberían moverse en direcciones opuestas; si ambas se mueven igual, tienes un problema de calibración.

  1. Time-to-counter. Wall-clock de “AE envió la pedida” a “el reviewer mandó el counter al AE.” El baseline antes de esta skill es típicamente 4-48 horas (queueing, retrieval, drafting). El target después de la adopción es bajo 30 minutos para pedidas rutinarias (corrida de skill + edit del reviewer + envío).
  2. Tasa de escalation en pedidas no triviales. De las pedidas que la skill flaggea como exception-needed o out-of-policy, ¿qué fracción llega al aprobador nombrado en la matriz DOA? Esto debería subir cuando la skill esté calibrada correctamente — los triggers de escalation existen para sacar a la luz pedidas que necesitan un ojo senior y que antes se rubber-stampeaban porque nadie tenía tiempo de jalar los análogos. Si la tasa baja, la skill está sobre-pavimentando y los criterios en references/3-escalation-criteria.md necesitan apretarse.

Si time-to-counter cae y la tasa de escalation sube, la skill está funcionando. Si solo lo primero pasa, construiste una máquina de confianza que está escondiendo riesgo de margen.

vs alternativas

  • Reglas de CPQ (Salesforce CPQ, DealHub, etc.). CPQ es la herramienta correcta para enforcement determinista dentro de política: catálogos de list-price, ruteo de aprobación en tiers de descuento, validación automática de configuración. Usa CPQ para el fast-path. Usa esta skill encima de CPQ para las pedidas que CPQ flaggea como necesitando aprobación — donde la decisión es “con qué counteramos,” no “está esto en política.” CPQ te dice que la pedida está out-of-policy; la skill te ayuda a counterearla.
  • Flujos de Salesforce Discount Approval. Los flujos de aprobación nativos rutean una excepción al aprobador correcto. No producen el counter recomendado ni sacan a la luz la evidencia de comparable-deal. Usa los flujos de aprobación como la capa de ruteo; usa esta skill para poblar el contexto que el aprobador lee antes de decidir.
  • Revisión manual de deal desk. Un reviewer de deal desk entrenado produce el mejor counter cuando se le da tiempo de jalar los análogos y reler la rúbrica. La restricción es throughput: un reviewer típico maneja 8-15 pedidas no estándar al día antes de que el trabajo de retrieval saque el trabajo de juicio. Usa la skill como la capa de retrieval-y-primer-borrador; el reviewer gasta su tiempo en el counter, no en ensamblar los inputs a este.
  • Calculador de rúbrica en spreadsheet. Algunos equipos construyen una hoja de Excel que toma ACV, term y descuento y devuelve “in-policy / exception.” Barato, rápido y frágil: no sabe sobre análogos, contexto competitivo o triggers de patrón del AE, y muere la primera vez que la rúbrica crece una nueva dimensión. Usa el spreadsheet para self-service del AE; usa la skill cuando la pedida llegue al deal desk.

Watch-outs

  • Recomendación con sobre-descuento. La skill puede producir un counter que cierra la brecha al target del comprador apilando cada concesión disponible (max descuento, max term incentive, max concesión de payment-term). Eso es matemáticamente correcto contra la rúbrica y comercialmente terrible — no deja nada en la mesa para la negociación. Guard: la recomendación capea las concesiones apiladas totales al menor de (techo de rúbrica) o (mediana de comparables + una desviación estándar). Cualquier cosa por encima dispara el flag de escalation con razón “stacked concessions exceed precedent.”
  • Rúbrica stale. La política de pricing cambia trimestralmente, a veces más rápido (lanza un nuevo packaging, un competidor mueve precio, se recorta un segmento). Una skill corriendo contra una rúbrica de seis meses va a recomendar un counter que el equipo ya no ofrece. Guard: la skill chequea la fecha last_edited en el frontmatter de la rúbrica y antepone una warning “Rubric may be stale (last edited YYYY-MM-DD)” a las notas del reviewer cuando tiene más de 90 días. El reviewer es responsable de refrescar la rúbrica en un calendario; la skill saca a la luz la staleness para que no se esconda.
  • Contexto competitivo perdido. Un deal donde el comprador nombró un competidor y una fecha de cierre apretada merece un counter distinto que un deal en el vacío, incluso cuando los veredictos de la rúbrica son idénticos. Guard: cuando se proporciona competitive_context, la sección de racional lo referencia explícitamente y la recomendación chequea si algún análogo bajo presión competitiva comparable tomó una forma distinta. Si deal_record flaggea un competidor pero competitive_context está vacío, la skill devuelve un prompt pidiéndole al reviewer que reejecute con el contexto lleno en lugar de producir un counter ciego al contexto.
  • Sesgo de selección de análogos. Un CSV de comparable-deal lleno de deals “aprobamos todo” entrena a la skill a hacer rubber-stamp de pedidas futuras. Guard: cada análogo en la tabla de evidencia incluye su estatus de aprobación (approved, rejected, lost-to-competitor, withdrawn). El reviewer ve la mezcla de aprobaciones y puede detectar el problema de curación; la skill también flaggea “no rejected analogs in last 20” como una nota de calibración en las notas del reviewer.
  • Recomendación citada de vuelta como aprobación. Lectores downstream (AE, customer, a veces el manager del AE) a veces tratan la recomendación como el counter aprobado. Guard: cada header de output incluye “Decision support, not approval.” y el bloque de escalation nombra al aprobador real en la matriz DOA. Si la recomendación se forwardea como el counter sin pasar por el reviewer humano, la línea del aprobador-nombrado hace que la brecha del proceso sea auto-evidente.

Stack

Aparéalo con contract redline con Claude para el workflow de etapa de negociación que corre después de que el counter se acuerda, y con contract summary con Claude para el resumen post-firma afinado a audiencia. La skill de deal-desk se sienta en el medio: después de que CPQ flaggea la pedida, antes del redline.

  • Salesforce — data de opportunity y quote, ruteo de aprobación
  • Claude — evaluación de rúbrica, jalada de comparable-deal, recomendación de counter, check de escalation

Archivos de este artefacto

Descargar todo (.zip)