roi-value-density

Installation
SKILL.md

ROI 与价值密度

这是一个辅助决策单元,不负责替代问题定义本身,而负责在已有候选之间收敛出更值得当前推进的动作。

核心原则

1. 先分清两个问题

  • ROI 回答“整体值不值得做”。
  • 价值密度 回答“现在先做哪个更划算”。
  • ROI 高,不等于现在就该做;价值密度 高,也不等于它在长期上最重要。

2. 只比较真正可比的候选

  • 没有候选时,不要硬做优先级排序。
  • 默认比较 2-3 个最具代表性的候选,而不是铺开大量方向。
  • 候选必须围绕同一目标或同一决策问题,否则比较会失真。

3. 判断必须绑定当前阶段

  • 同一个动作在不同阶段的 ROI 和价值密度可能完全不同。
  • 必须显式考虑当前目标、阶段、约束、阻塞点与已有投入。
  • 不允许脱离上下文给出“通用高优先级”式结论。

4. 证据优先于伪精确

  • 默认使用定性判断即可,不追求复杂权重公式和伪精确打分。
  • 必须区分“来自上下文的证据”和“Agent 的推断”。
  • 证据不足时,应降低结论力度,而不是硬凑排序结果。

5. 输出必须服务于收敛

  • 最终回答必须落到动作层:现在做稍后做暂不做先补证据
  • 不要把用户重新带回发散状态。
  • 决策结论应说明原因,同时说明不选其他候选的主要理由。

AI Agent 行为要求

触发场景

以下场景默认适用本 skill:

场景 判断重点 不该做什么
产品取舍 比较用户价值、交付成本、机会成本与验证路径 只因“想做”或“看起来酷”就推进
技术选型 比较适配度、迁移成本、维护复杂度、锁定风险 只看流行度或个人偏好
重构是否值得做 比较痛点频率、维护收益、影响范围、止损点 把“代码看着不爽”当成充分理由
任务先后顺序 比较阻塞程度、验证速度、依赖关系、推进价值 直接凭直觉排 P0/P1/P2
学习路线判断 比较目标相关性、反馈周期、前置门槛、复用价值 只按兴趣发散学习,不看当前目标

默认判断顺序

  1. 明确当前要解决的决策问题是什么。
  2. 列出 2-3 个真正可比的候选动作。
  3. 先判断每个候选整体上是否值得投入。
  4. 只对值得投入的候选继续比较当前价值密度。
  5. 给出当前动作建议,并说明延后或暂不做的条件。

输出要求

  • 默认同时覆盖 ROI价值密度,除非当前只有一个候选且用户只问“值不值得做”。
  • 结论必须落到当前上下文任务,不停留在抽象原则。
  • 回答里至少应包含:当前建议、主要依据、最大不确定性、下一步动作。
  • 若需要排序,优先使用 现在做 / 稍后做 / 暂不做 这类轻量表达。

协同边界

  • 当结论涉及争议、替代方案和风险评估时,可与 critical-thinking-evaluation 配合使用。
  • 当结论依赖外部事实、版本状态、市场信息或研究资料时,可与 source-quality-control 配合使用。
  • 本 skill 不替代需求发现、架构设计或深入研究,只负责把候选动作收敛成当前更合理的决策。

判断标准

默认比较以下五项即可:

维度 关注点
预期价值 是否真正改善当前问题、目标结果或用户收益
总投入 需要多少时间、资源、协作成本与维护成本
新增复杂度 是否引入新的抽象、耦合、流程或认知负担
验证速度 多快能知道它是否有效
不确定性 是否依赖未确认的假设、接口、资源或组织条件

以下信号通常说明当前价值密度更高:

  • 能直接缓解当前主线阻塞。
  • 可以在短周期内完成验证。
  • 不需要引入明显超前设计。
  • 做完后能带动后续更多判断或执行继续推进。

以下情况可以上调优先级,即使它表面上不够“短平快”:

  • 它是当前主线的阻塞项。
  • 它持续制造返工、判断噪音或协作摩擦。
  • 它能显著提升后续决策清晰度。
  • 拖延成本已经高于先推进一小步的成本。

反模式

  • ROI 理解成“实现越便宜越优先”。
  • 把价值密度理解成“只看短平快”。
  • 没有真正候选,却硬做排序。
  • 不解释当前阶段,直接给固定优先级标签。
  • 用复杂分数掩盖证据不足。
  • 因为已经投入过,就默认继续追加投入。

参考资料

  • references/roi-value-density-evaluation.md - ROI 与价值密度的统一判断框架、五类高频决策场景与输出骨架
Related skills

More from qiao-925/qiao-skills

Installs
7
First Seen
Mar 14, 2026