skills/jssfy/k-skills/paper-analysis

paper-analysis

SKILL.md

Paper Analysis — 一键深度分析一篇论文

输入论文 URL、PDF 路径或标题,自动并行采集七个维度的信息,交叉分析后输出结构化研究笔记。

When to Use

当用户请求以下操作时触发:

  • "分析这篇论文 https://arxiv.org/abs/..." / "分析 xxx 论文"
  • "paper analysis: Attention Is All You Need"
  • "读这篇 paper" / "帮我分析下这篇论文"
  • "这篇论文讲什么" / "论文笔记 xxx"

来源可信度规则(全局,所有 Phase/Agent 均适用)

一手源优先原则

论文原文是唯一的事实权威。所有关键数字、方法描述、实验结果必须能在论文原文中定位到具体章节/图表/公式。外部来源仅用于补充解读和社区反馈。

来源分层

层级 来源类型 用途 标注要求
L1 一手源 论文原文(arXiv HTML/PDF)、会议官方页(USENIX/ACM/IEEE/NeurIPS)、作者主页 关键事实、数字、方法描述 标注 Section/Figure/Table 编号
L2 强可信 Google Scholar、Semantic Scholar、DBLP、OpenReview 官方评审、实验室主页 引用量、h-index、评审意见 标注页面 URL + 抓取日期
L3 补充解读 知名技术博客(如作者本人博客、机构官方博客)、学术社区讨论(Reddit/Twitter 原帖) 社区反馈、通俗解读 明确标注为"外部解读",不作为事实依据
L4 低可信 新闻稿、聚合站、媒体转述、交易所/营销类网站 不得用于支撑关键事实,仅可在社区反馈维度作为"舆情信号"引用 标注"低可信来源"

段内引用与断言标注

禁止"末尾堆链接"模式。所有关键断言必须在行文中就地标注来源:

  • 论文原文事实:(论文 Section 3.2, Figure 4)
  • 外部可验证数据:(Google Scholar, 2026-03-14 抓取, 1,234 citations)
  • 外部解读:([来源名称](url), 外部解读)
  • 分析者推断:必须用"分析认为"/"推断"等措辞标记,不得伪装为事实
  • 时间敏感指标(引用量、star、upvote):必须标注抓取日期 + 来源 URL;无法从 L1/L2 获取则不写数字,改为"截至 {date} 未找到可靠公开数据"

Phase 0: 论文定位与输入解析

硬约束(不可跳过): 禁止检测本地是否存在已有分析文件。无论工作目录下有无同名或相似文件,都必须从头执行完整分析流程,重新生成报告。

根据用户输入,识别输入类型并执行对应流程:

输入路径

输入类型 处理流程
URL WebFetch 抓取页面,提取标题、作者、摘要、机构
PDF 路径 Read 读取 PDF 前几页,提取标题、作者、摘要
标题/关键词 WebSearch 搜索定位,再 WebFetch 获取详情

URL 输入处理

  1. arXiv 链接

    Step 1: WebFetch https://arxiv.org/abs/{id}
            → 提取标题、作者、摘要、提交日期
    Step 2: 尝试 WebFetch https://arxiv.org/html/{id} 获取论文 HTML 全文(用于后续 Agent 引用具体章节)
    Step 3: WebSearch "{paper_title} conference accepted" 或 "{paper_title} published venue"
            → 确认发表会议/期刊
    
  2. 其他 URL(Semantic Scholar、ACL Anthology、OpenReview 等)

    WebFetch {url} → 提取标题、作者、摘要、机构、venue
    

PDF 输入处理

Read {pdf_path} (前 5 页)
→ 提取标题、作者、摘要、机构
→ 记录论文结构(章节标题列表)供后续引用
→ 如信息不全,WebSearch "{提取到的标题}" 补充

标题/关键词输入处理

Step 1: WebSearch "{论文标题/关键词} arxiv OR paper OR conference"
        → 找到论文链接
Step 2: WebFetch {找到的链接}
        → 提取完整信息
Step 3: 如果找到 arXiv 链接,尝试获取 HTML 全文

如果搜索结果不明确,向用户确认后再继续。

获取论文原文(关键步骤,不可跳过)

在进入 Phase 1 之前,必须尝试获取论文原文内容作为一手事实源:

  1. arXiv HTML(首选):WebFetch https://arxiv.org/html/{id} — 获取结构化全文
  2. PDF:如果用户提供了 PDF 路径,Read {pdf_path} 读取全文
  3. 会议官方页面WebFetch {conference_url} — 部分会议提供 HTML 版本

将获取到的论文原文内容(或关键章节摘要)存入 {paper_content} 变量,传递给每个 Agent。如果无法获取全文,在 {paper_content} 中标注"未获取到论文全文,Agent 需通过搜索补充"。

生成论文定位映射(必须,不可跳过)

{paper_content} 中提取论文的结构骨架,生成 {paper_locator_map},后续所有 Agent 必须引用此 map 中的编号:

从论文原文中提取:
1. Section 编号与标题(如 "Section 3.2: DualPath Architecture")
2. 所有 Figure 编号与标题(如 "Figure 3: System overview")
3. 所有 Table 编号与标题(如 "Table 2: Offline throughput comparison")
4. 所有 Algorithm 编号与标题(如有)
5. References 中被引用 ≥ 2 次的前置论文编号与标题

输出格式:
## paper_locator_map
### Sections
- Section 1: Introduction
- Section 2: Background
- Section 3: Method
  - Section 3.1: ...
  - Section 3.2: ...
- ...
### Figures
- Figure 1: ...
- Figure 2: ...
### Tables
- Table 1: ...
- Table 2: ...
### Key References
- [12] Attention Is All You Need (Vaswani et al., 2017)
- [15] ...

如果论文 HTML 无编号(部分 arXiv 论文),用 Section 标题作为定位锚点(如 "Evaluation > Offline Throughput")。

此步骤的输出 {paper_locator_map} 必须传给每个 Agent,作为引用时的"合法编号列表"。Agent 引用的 Section/Figure/Table 编号必须来自此 map。

确定关键变量

以下变量后续所有 Agent 都需要用到:

  • {paper_title} — 完整论文标题
  • {authors} — 作者列表
  • {institution} — 机构/团队
  • {year} — 发表年份
  • {venue} — 发表会议/期刊(未发表则标注 arXiv preprint)
  • {abstract} — 摘要
  • {paper_content} — 论文原文内容或关键章节(作为一手事实源传给每个 Agent)
  • {paper_locator_map} — 论文结构骨架(Section/Figure/Table/Algorithm 编号列表,Agent 引用必须来自此 map)
  • {paper_type} — 论文类型(学术论文 / 技术报告 / 白皮书)
  • {lang} — 输出语言(用户指定或默认中文)
  • {date} — 分析日期,格式 YYYY-MM-DD
  • {paper_name_en} — 英文文件名形式(小写、连字符分隔)

论文类型适配提示

传给每个子代理:

  • 学术论文 → "这是学术论文,侧重分析研究方法、实验设计、理论贡献"
  • 技术报告 → "这是技术报告,侧重分析系统设计、工程实践、性能指标"
  • 白皮书 → "这是白皮书,侧重分析行业洞察、方案设计、商业价值"
  • Survey/综述 → "这是综述论文,侧重分析分类框架、研究脉络、未来方向"

如果无法确定论文类型或关键信息,先用一次 WebSearch 快速查询,不要跳过这一步


Phase 1: 并行数据采集 (7 个 Subagent)

关键要求: 以下 7 个 Agent 必须放在同一条消息中发出,确保并行执行。

每个 Agent 使用 subagent_type: "general-purpose"

全局 Agent 指令分为两部分,分别放在每个 Agent prompt 的开头末尾

{前置引用约束}(放在每个 Agent prompt 的任务描述之前,作为硬约束前置):

## 硬约束(违反将导致输出被丢弃)

**可用的论文定位编号**: {paper_locator_map}
你引用的 Section/Figure/Table 编号**必须来自上述 map**,不得编造不存在的编号。

1. 每个关键数字/断言后必须**就地**括号标注论文位置: `(论文 Section X.Y, Table/Figure Z)`
   - ✅ `离线吞吐提升 1.87×(论文 Table 2, Section 5.1)`
   - ❌ `离线吞吐提升 1.87×(来源: arxiv html)`
   - ❌ `离线吞吐提升 1.87×` (无标注)
   - ❌ 段落末尾统一放一个链接或"参见论文 Section 5" — 这是**段末堆链接**,不算引用
   - HTML 无编号时用 Section 标题: `(论文 "Evaluation > Offline Throughput")`
2. **非数字的技术断言也需标注**:具体机制(如"使用 RDMA 直接传输")、设计决策(如"采用 io_uring 旁路内核")、性能特征(如"近线性扩展")→ 必须标注论文中描述该机制的 Section/Figure
3. L4 来源(新闻稿/聚合站/交易所)不得支撑任何事实断言
4. 无法定位到论文具体位置的数字或技术细节 → 不写,改为定性描述或省略
5. 分析推断必须用"分析认为/推断"标记

{输出格式要求}(放在每个 Agent prompt 的末尾):

## 来源与引用规则(必须遵守)

1. **一手源优先**:论文原文是唯一事实权威。关键数字和方法描述必须能定位到论文的具体 Section/Figure/Table。
2. **段内引用**:每个关键断言后必须括号标注来源,格式:
   - 论文原文:(论文 Section X.Y, Figure Z)
   - 外部验证数据:(来源名, URL, 抓取日期)
   - 外部解读:([来源名](url), 外部解读)
3. **来源分层**:
   - L1(论文原文、会议官方页、作者主页)→ 可支撑关键事实
   - L2(Google Scholar、Semantic Scholar、OpenReview)→ 可支撑引用量等指标
   - L3(技术博客、社区讨论)→ 仅作补充解读,标注"外部解读"
   - L4(新闻稿、聚合站)→ 不得用于关键事实
4. **不确定就不写**:无法从 L1/L2 来源验证的具体数字,不写数字,改为"未找到可靠数据"。
5. **区分事实与推断**:论文原文事实直接陈述;分析者推断必须用"推断/分析认为"标记。
6. **字数上限 800 字**:超出时优先保留有一手源支撑的内容,砍掉无法验证的描述。

## 必须的输出格式

在你的分析文本之后,**必须**附加一个断言-位置映射表:

### 断言-位置映射
| 断言/数字 | 论文位置 | 来源层级 |
|-----------|---------|---------|
| {每个关键数字或事实断言} | Section X, Table Y / 来源URL | L1/L2/L3/L4 |

要求: 至少覆盖你输出中的所有阿拉伯数字。无法定位的填"未定位"。

Agent 1: 背景与动机

description: "研究{paper_title}背景与动机"

prompt 模板:

{前置引用约束}

你是学术研究分析专家。请研究论文《{paper_title}》({authors}, {year})的研究背景与动机。

论文摘要:{abstract}
论文原文(如有):{paper_content}
论文定位映射:{paper_locator_map}
论文类型提示:{type_hint}
输出语言:{lang}

任务:
1. **优先从论文原文提取**:从 {paper_content} 中定位 Introduction / Related Work 部分,提取:
   - 研究领域现状和前人工作
   - 核心问题和动机
   - 标注具体 Section 编号
2. 使用 WebSearch 搜索补充信息(至少 1 次):
   - "{paper_title} motivation background related work"
   → 补充论文未明确说明的领域背景
3. 使用 WebFetch 访问至少 1 个 L1/L2 来源页面验证

整理以下信息:

   **研究领域现状:**
   - 该领域的发展脉络和现状(标注信息来源)
   - 前人工作的主要贡献和局限(标注论文 Section)

   **核心问题与动机:**
   - 论文要解决的核心问题(标注论文 Section)
   - 现有方法为什么不够好(标注论文中的论据)
   - 作者的切入角度和研究假设

{输出格式要求}

Agent 2: 团队与作者背景

description: "研究{paper_title}团队背景"

prompt 模板:

{前置引用约束}

## 本 Agent 专属约束
- **禁止来源**: 36kr、ResearchGate、新闻稿、媒体报道 — 不得作为团队背景的任何支撑
- 入职时间、实习经历等履历细节 → 除非作者主页明确写明,否则**不写**(不是标"待核实",是不写)
- 每条断言标注具体来源页面路径(如 "xinjin.github.io > Publications"),不得笼统写"来源: 作者主页"
- **禁止定性评价**: "最具影响力""核心人物""标志性学者""领军团队"等 → 除非有官方奖项/头衔页面支撑,否则不写
- **宁缺毋滥**: 若无法从作者主页/Scholar/DBLP 验证,整段缩减为"作者所属机构 + 与本文直接相关的 1-2 篇前序工作",禁止补充履历叙事。信息不足时本维度压缩为 2-4 句即可

你是学术情报分析专家。请研究论文《{paper_title}》作者团队的背景信息。

作者列表:{authors}
机构:{institution}
输出语言:{lang}

任务:
1. 使用 WebSearch 搜索以下关键词(至少搜 2 次不同关键词):
   - "{第一作者} {institution} research site:scholar.google.com OR site:dblp.org OR site:semanticscholar.org"
   - "{通讯作者} homepage OR lab"
2. 使用 WebFetch 访问至少 1 个作者主页、Google Scholar 或 DBLP 页面(仅 L1/L2 来源)

整理以下信息:

   **核心作者介绍:**
   - 第一作者和通讯作者的背景(职位、研究方向、代表作)
   - 所属机构/实验室的研究特色
   - **仅列出可从官方主页或 Google Scholar 确认的荣誉/奖项**
   - 无法从 L1/L2 来源验证的信息 → **不写**(不是标"待核实")

   **研究脉络:**
   - 团队在该领域的前序工作(列出具体论文名称和会议)
   - 与本论文的延续/突破关系

**特别注意**: 团队背景是最容易出现幻觉的维度。
- 所有奖项、项目归属、影响力定性(如"最具影响力")必须有 L1/L2 来源支撑,否则不写
- **入职时间、实习经历、组织归属**等履历细节幻觉风险极高,除非在作者主页或论文首页明确写明,否则**不写**

{输出格式要求}

Agent 3: 技术方法与创新点

description: "分析{paper_title}技术方法"

prompt 模板:

{前置引用约束}

你是技术方法分析专家。请分析论文《{paper_title}》({authors}, {year})的核心技术方法和创新点。

论文摘要:{abstract}
论文原文(如有):{paper_content}
论文定位映射:{paper_locator_map}
论文类型提示:{type_hint}
输出语言:{lang}

任务:
1. **优先从论文原文提取**:从 {paper_content} 中定位 Method / Approach / System Design 部分,提取:
   - 核心方法/算法/架构
   - 关键技术组件和工作流程
   - 与前人工作的区别(论文中的 comparison)
   - 标注具体 Section/Figure/Algorithm 编号
2. 使用 WebSearch 搜索补充解读(至少 1 次):
   - "{paper_title} method explained" 或 "{paper_title} 方法解析"
   → 获取通俗解读作为补充(标注为 L3 外部解读)
3. 使用 WebFetch 访问至少 1 个技术解读页面

整理以下信息:

   **核心方法:**
   - 论文提出的核心方法/算法/架构(标注论文 Section/Figure)
   - 关键技术组件和工作流程
   - 数学/算法层面的核心思想(用直觉解释,避免纯公式)

   **创新点:**
   - 与前人工作的关键区别(列 2-3 点,标注论文中的论据)
   - 每个创新点为什么重要
   - 技术贡献的本质(新架构 / 新训练策略 / 新理论框架等)

{输出格式要求}

Agent 4: 实验与结果评估

description: "分析{paper_title}实验结果"

prompt 模板:

{前置引用约束}

你是实验评估专家。请分析论文《{paper_title}》({authors}, {year})的实验设计和结果。

论文摘要:{abstract}
论文原文(如有):{paper_content}
论文定位映射:{paper_locator_map}
论文类型提示:{type_hint}
输出语言:{lang}

任务:
1. **必须从论文原文提取**:从 {paper_content} 中定位 Experiments / Evaluation / Results 部分,提取:
   - 实验设置(数据集、基线、指标)
   - 关键结果数字(标注具体 Table/Figure 编号)
   - 消融实验发现
2. 使用 WebSearch 搜索补充(至少 1 次):
   - "{paper_title} results benchmark comparison"
   → 了解社区对实验结果的评价
3. 使用 WebFetch 访问至少 1 个 L1/L2 来源验证

整理以下信息:

   **实验设计:**
   - 使用的数据集/基准(标注论文 Section)
   - 基线方法(baseline)有哪些
   - 评估指标

   **关键结果:**
   - 主要实验结果(标注论文 Table/Figure 编号)
   - 与 baseline 的关键对比数字
   - 消融实验的主要发现(如有,标注 Table/Figure)
   - 结果是否充分验证了论文的核心 claim

**特别注意**: 实验数字是最需要精确的内容。所有数字必须能在论文原文的具体 Table/Figure 中找到,不得从博客或新闻稿中提取实验数据。

{输出格式要求}

Agent 5: 优缺点与局限性

description: "分析{paper_title}优缺点"

prompt 模板:

{前置引用约束}

你是学术评审专家。请分析论文《{paper_title}》({authors}, {year})的优缺点和局限性。

论文摘要:{abstract}
论文原文(如有):{paper_content}
论文定位映射:{paper_locator_map}
论文类型提示:{type_hint}
输出语言:{lang}

任务:
1. **优先从论文原文提取**:从 {paper_content} 中定位 Discussion / Limitations / Conclusion 部分,提取:
   - 作者自述的局限性(标注 Section)
   - 作者讨论的适用边界
2. 使用 WebSearch 搜索以下关键词(至少搜 2 次不同关键词):
   - "{paper_title} limitations criticism"
   - "{paper_title} review openreview" 或 "{paper_title} 不足 局限"
3. 使用 WebFetch 访问至少 1 个包含论文评价的页面(优先 OpenReview 官方评审)

整理以下信息:

   **优点:**
   - 方法论层面的优点(2-3 点,标注论文中的支撑)
   - 实验层面的优点

   **局限性:**
   - 作者自述的局限(标注论文 Section,这是最可靠的)
   - 外部评审/社区指出的不足(标注来源和层级)
   - 方法的适用边界和前置条件

   **改进方向:**
   - 可能的改进思路(1-2 点)

{输出格式要求}

Agent 6: 社区反馈与影响力

description: "研究{paper_title}社区影响"

prompt 模板:

{前置引用约束}

你是学术影响力分析专家。请研究论文《{paper_title}》({authors}, {year})的社区反馈和学术影响力。

论文摘要:{abstract}
输出语言:{lang}

任务:
1. 使用 WebSearch 搜索以下关键词(至少搜 2 次不同关键词):
   - "{paper_title} site:scholar.google.com OR site:semanticscholar.org"
   - "{paper_title} github implementation" 或 "{paper_title} discussion reddit twitter"
2. 使用 WebFetch 访问:
   - **必须**: 至少 1 个 L2 来源(Google Scholar 或 Semantic Scholar)获取引用数据
   - **可选**: 社区讨论页面

整理以下信息:

   **学术影响力:**
   - 引用量(标注来源 + 抓取日期,如"Google Scholar, {date}, N citations")
   - 被哪些重要后续工作引用(列出具体论文名称)
   - 是否获得最佳论文奖(仅从会议官方页面确认,无法确认则不写)

   **社区反馈:**
   - 业界/学界的主要评价(标注来源层级)
   - 开源实现情况(GitHub URL + star 数 + 抓取日期)
   - 工业界采用情况(仅写有 L1/L2 来源支撑的)
   - 争议或批评(标注来源)

**特别注意**:
- 本维度信息时效性最强,所有数字指标必须标注抓取日期和来源 URL
- 新论文(发布 < 6 个月)社区反馈可能不充分,如实标注"论文较新,数据有限",不要编造
- L4 来源(新闻稿/聚合站)仅可作为"舆情信号"引用,不可作为事实依据,且必须标注"L4 低可信"
- 禁止从 L4 来源提取引用量、star 数等数字指标

{输出格式要求}

Agent 7: 术语表与延伸阅读

description: "整理{paper_title}术语与延伸阅读"

prompt 模板:

{前置引用约束}

你是学术知识整理专家。请整理论文《{paper_title}》({authors}, {year})的关键术语和推荐延伸阅读。

论文摘要:{abstract}
论文原文(如有):{paper_content}
论文定位映射:{paper_locator_map}
论文类型提示:{type_hint}
输出语言:{lang}

任务:
1. **优先从论文原文提取**:从 {paper_content} 中提取:
   - 论文定义或频繁使用的关键术语
   - References 部分引用的核心论文
2. 使用 WebSearch 搜索补充(至少 1 次):
   - "{paper_title} related papers survey"
   → 了解该方向的前置和后续工作
3. 使用 WebFetch 访问至少 1 个 L1/L2 来源验证

整理以下信息:

   **术语索引表:**
   - 列出论文中 10-15 个关键术语/概念
   - 每个条目包含: 术语名称、简要定义(1-2 句)
   - 优先提取论文中有明确定义的术语(标注 Section)
   - 标注术语之间的关联关系

   **延伸阅读:**
   - 前置阅读(理解本文需要先读的 2-3 篇论文,**必须从论文 References 中选取**,标注引用编号如 [12])
   - 后续工作(基于本文的重要后续研究 3-4 篇,必须通过 WebSearch/WebFetch 确认真实存在)
   - 每篇包含: 标题、作者、年份、与本文的关联说明、**来源**(论文 References [N] / Google Scholar / Semantic Scholar)
   - **不得列出无法通过搜索确认的论文**——如果搜索不到,就不列

{输出格式要求}

Phase 2: 综合分析 (主线程)

等待 7 个 Agent 全部返回后,在主线程中完成以下分析。

Step 1: 信息汇总与事实校验

将 7 个 Agent 的结果整合,执行:

  • 来源层级审查:检查各 Agent 返回的断言是否有合格来源支撑,将仅有 L4 来源支撑的"事实"降级为"待验证"
  • 一致性信号:多个 Agent 从不同来源提到同一结论 = 高置信度
  • 补充关系:Agent 1 的动机与 Agent 3 的方法形成问题→方案对应
  • 矛盾信号:不同来源对某观点评价不一致 = 在报告中标注争议
  • 整理所有来源 URL,按层级分类

Step 1.5: 论文位置映射表(硬门控)

从所有 Agent 返回的"断言-位置映射表"中汇总,合并去重。然后按以下规则分类处理:

  1. 合格条目(有 Section/Table/Figure 编号): 直接进入报告
  2. 仅有 URL 无编号的条目: 回到 {paper_content} 全文搜索定位,补上编号
  3. 搜索后仍无法定位的条目: 标注"位置待定",在报告中该数字改为定性描述(如"显著提升"替代具体倍数)
  4. 来自 L4 来源的条目: 从事实段落移除,仅可在社区反馈段引用

汇总格式:

| 数字/断言 | 论文位置 | 来源 Agent | 状态 |
|-----------|---------|-----------|------|
| 1.87× 离线吞吐提升 | Table X, Section Y | Agent 4 | 合格 |
| 28.8× 算力增长 | Section 1, Figure Z | Agent 1 | 合格 |
| 某个数字 | 未定位 | Agent 3 | 降级为定性描述 |
| ... | ... | ... | ... |

门控条件: 合格条目 < 10 条时,说明论文原文提取不充分,需要重新 WebFetch 论文 HTML 并补充定位,而非直接进入 Phase 3。

Step 2: 交叉关联

在 7 个维度之间建立关联:

  1. 动机 ↔ 方法映射: 将背景问题(Agent 1)与技术方案(Agent 3)一一对应
  2. 方法 ↔ 实验验证: 检查创新点(Agent 3)是否在实验(Agent 4)中得到充分验证
  3. 优缺点 ↔ 社区反馈: 对比作者自述局限(Agent 5)与社区评价(Agent 6)是否一致
  4. 团队背景 ↔ 研究脉络: 将团队前序工作(Agent 2)与本文的延续/突破关系标注
  5. 术语 ↔ 内容锚定: 验证术语(Agent 7)与各维度内容的对应关系

Step 3: 核心结论提炼

基于以上分析,撰写 3-5 句话的核心结论:

  • 这篇论文最核心的贡献是什么
  • 最值得关注的 1-2 个创新点
  • 实际影响和应用价值
  • 最适合什么样的读者

Phase 3: 输出报告

按以下 Markdown 格式输出最终报告:

# 《{paper_title}》论文深度分析

> **作者**: {authors} | **机构**: {institution} | **发表**: {venue} {year} | **分析日期**: {date}

## 核心结论

<!-- 硬格式:每条结论必须是独立条目,带引用槽位 -->
- **核心贡献**: {一句话}(论文 Section X, Table/Figure Y)
- **关键创新**: {一句话}(论文 Section X)
- **关键结果**: {一句话,含数字}(论文 Table X, Section Y)
- **适合读者**: {一句话}
- **局限提示**: {一句话}(论文 Section X)

---

## 一、背景与动机

### 研究领域现状

{该领域的发展脉络和现状,前人工作的贡献与局限}
{每个关键断言后标注来源,如(论文 Section 1, [2])}

### 核心问题与动机

{论文要解决的核心问题、现有方法的不足、作者的切入角度}
{标注论文 Section}

---

## 二、团队与作者背景

### 核心作者

<!-- 仅写作者主页/Google Scholar/DBLP 可直接证实的内容,无法证实的不写 -->
{第一作者和通讯作者的背景、研究方向、代表作}
{所有荣誉/奖项标注验证来源(具体页面路径),无法从 L1/L2 验证的不写}

### 研究脉络

{团队前序工作与本文的关系、实验室研究特色}

---

## 三、技术方法与创新点

### 核心方法

<!-- 每个技术机制(如"使用 RDMA"、"采用 io_uring")都必须标注描述该机制的论文 Section/Figure -->
{论文提出的核心方法/算法/架构(标注论文 Section/Figure)}
{关键技术组件和工作流程,每个组件标注论文 Section}

### 创新点

1. **{创新点一}**: {描述及为什么重要}(论文 Section X.Y)
2. **{创新点二}**: {描述及为什么重要}(论文 Section X.Y)
3. **{创新点三}**: {描述及为什么重要}(论文 Section X.Y)

---

## 四、实验与结果评估

### 实验设计

<!-- 论文位置列不可为空,无法定位则填"未定位" -->
| 项目 | 详情 | 论文位置 |
|------|------|---------|
| 数据集 | {使用的数据集/基准} | Section X(不可为空) |
| 基线方法 | {baseline 列表} | Section X(不可为空) |
| 评估指标 | {主要指标} | Section X(不可为空) |

### 关键结果

<!-- 硬格式:每条结果一行,数字紧跟引用,禁止段末堆链接 -->
- {指标名}: {数字}(论文 Table X, Section Y)
- {指标名}: {数字}(论文 Table X, Section Y)
- {指标名}: {数字}(论文 Figure X, Section Y)
- ...

### 消融实验

<!-- 硬格式:每条消融发现一行,同样逐个标注 -->
- {消融变量}: {去掉后的数字变化}(论文 Table X)
- {消融变量}: {去掉后的数字变化}(论文 Table X)
- ...

---

## 五、优缺点与局限性

### 优点

{方法论和实验层面的优点,标注论文支撑}

### 局限性

{作者自述局限(标注论文 Section)、社区指出的不足(标注来源层级)、适用边界}

### 改进方向

{可能的改进思路}

---

## 六、社区反馈与影响力

### 学术影响力

{引用量(来源 + 抓取日期)、重要后续工作、获奖情况(仅官方确认的)}

### 社区反馈

**已验证事实:**
- {可独立验证的客观信息,如平台收录、讨论帖链接、开源仓库 URL + star + 抓取日期}

**外部讨论:**
- {来自社区的具体评论或观点}(来源层级, URL)

**分析判断:**
- 分析认为:{基于以上事实的推理和综合判断}

---

## 七、术语表与延伸阅读

### 术语索引

<!-- 论文位置列不可为空,无法定位则填"未定位" -->
| 术语 | 定义 | 论文位置 |
|------|------|---------|
| {术语1} | {简要定义} | Section X(不可为空) |
| {术语2} | {简要定义} | Section X(不可为空) |
| ... | ... | ... |

### 延伸阅读

**前置阅读(理解本文的基础):**

<!-- 前置阅读必须来自论文 References,标注引用编号 -->
| 论文 | 作者 | 年份 | 关联说明 | 来源 |
|------|------|------|----------|------|
| {论文1} | {作者} | {年份} | {与本文的关联} | References [N] |

**后续工作(已发表的相关研究):**

<!-- 后续工作必须通过搜索确认真实存在,不得编造 -->
| 论文 | 作者 | 年份 | 关联说明 | 来源 |
|------|------|------|----------|------|
| {论文1} | {作者} | {年份} | {与本文的关联} | Google Scholar / Semantic Scholar |

**潜在研究方向(未发表/作者设想):**

- {方向1}:{简要描述}(来源:论文 Section X / 作者公开讨论)
- {方向2}:{简要描述}

---

## 论文定位映射(paper_locator_map)

<!-- 必须原样输出 Phase 0 生成的 paper_locator_map,作为引用审计基准 -->
<!-- 正文中所有 `(论文 Section/Table/Figure X)` 引用的编号必须出现在此 map 中 -->

{paper_locator_map 原文}

---

## 断言与证据清单

<!-- 必须覆盖正文中出现的所有阿拉伯数字,无遗漏 -->
| # | 关键断言 | 论文位置(须匹配 paper_locator_map) | 外部来源 | 来源层级 | 置信度 | 性质 |
|---|---------|--------------------------------------|---------|--------|--------|------|
| 1 | {断言描述} | Section X, Table Y || L1 | High | 论文原文 |
| 2 | {断言描述} || {URL, 抓取日期} | L2 | Medium | 外部验证 |
| 3 | {断言描述} |||| Low | 分析推断 |
| ... | ... | ... | ... | ... | ... | ... |

> 置信度说明:**High** = L1 来源直接支撑;**Medium** = L2 来源支撑或多个 L3 来源交叉验证;**Low** = 仅有 L3/L4 来源或为分析推断
> **审计方法**: "论文位置"列中的每个 Section/Table/Figure 编号必须能在上方 paper_locator_map 中找到对应条目。找不到 → 该行标红待查。

---

## 来源登记表

<!-- 所有被引用的来源必须登记,便于审查"来源是否被滥用" -->
| # | 来源 | 层级 | 用于支撑 | 抓取日期 |
|---|------|------|---------|---------|
| 1 | 论文原文: [{paper_title}]({url}) | L1 | 方法、实验、局限性 ||
| 2 | {作者主页 URL} | L1 | 团队背景 | {date} |
| 3 | {Google Scholar URL} | L2 | 引用量 | {date} |
| 4 | {技术博客 URL} | L3 | 外部解读 | {date} |
| ... | ... | ... | ... | ... |

> **L4 来源不得出现在此登记表中。** 如需引用 L4 来源,仅可在正文"社区反馈 > 外部讨论"中内联标注 `(L4 低可信)`,不登记。常见 L4 来源:`bitcoinethereumnews.com``aihaberleri.org``MEXC News``36kr``新浪科技``coindesk`(非技术原文时)。

---

*本笔记由 AI 自动生成。关键数字和事实已尽量标注论文原文位置,建议结合原文验证。"断言与证据清单"可快速定位需要核查的内容。*

Phase 3.5: 报告校验与修复(写入文件前必须执行,不可跳过)

Step 1: 断言引用扫描

逐行扫描报告,对每个阿拉伯数字每个具体技术机制描述:

  • 紧跟 (论文 Section/Table/Figure X) 且编号存在于 paper_locator_map → 通过
  • 段落末尾有链接但数字/断言本身无标注 → 不合格(这是"段末堆链接"反模式)→ 把标注移到数字/断言后面
  • 有 URL 但无 Section 编号 → 回到 Step 1.5 映射表查找,补上编号或改为定性描述
  • 无任何标注 → 补上标注或删除该数字/断言

必须捕获的不合格模式(逐字符扫描以下 pattern):

  • TableFigure无编号 → 补编号或改为 Section 引用
  • 论文 Table, Section X — Table 缺编号(逗号前应为 Table N)→ 补上 Table 编号或仅保留 Section
  • (论文 Section X) 中 X 不在 paper_locator_map → 回查论文,修正编号或标"未定位"
  • (来源: arxiv html)(来源: 论文) — 这不是定位引用 → 替换为具体 Section/Table 编号
  • 引用的 Table/Figure 编号在 paper_locator_map 中不存在 → 回查论文或删除该引用

扫描范围特别关注:核心结论、关键结果、消融实验、技术方法中的具体机制名称

Step 2: 来源层级执行

逐行扫描报告全文(不仅是"来源:"行),搜索以下 L4 域名关键词:

  • 36kr / ResearchGate / MEXC / aihaberleri / bitcoinethereumnews / Eyerys / 新浪科技 / coindesk / techcrunch(非第一手技术文章时)
  • 上述域名出现在团队背景、技术方法、实验评估、优缺点段落 → 移除该来源支撑的断言,或将断言移入"社区反馈 > 外部讨论"并标 (L4 低可信)
  • 上述域名出现在参考来源区 → 移除,L4 不入参考来源区

Step 3: 结构完整性

  • 实验设计表有"论文位置"列且非空
  • 术语索引表有"论文位置"列且非空
  • 社区反馈分为: 已验证事实 / 外部讨论 / 分析判断
  • 来源登记表存在,每行有层级和"用于支撑"列,无 L4 来源
  • 断言与证据清单存在且 ≥ 10 条

Step 4: 团队背景审查

  • 无 36kr/ResearchGate/媒体稿来源
  • 无法从作者主页/Scholar 直接证实的履历细节 → 删除(不是标"待核实")
  • "据报道"/"据...报道"/"reported"/"据媒体"/"有报道称" → 如紧跟内容无 L1/L2 来源括号标注 → 删除整句("据报道"本身就是 L4 信号词)
  • 具体硬件采购数量(如"采购 N 块 GPU")→ 除非来源为公司官方公告或 SEC 文件 → 删除

Step 5: 其他校验

  • 推断有标记: 比较级/评价性表述("较快""显著""典范")标注了来源,或用"分析认为"标记
  • 延伸阅读: 前置阅读必须来自论文 References(标注 [N]);后续工作必须有来源列(Google Scholar / Semantic Scholar);无法确认存在的条目删除
  • 时间敏感指标: 引用量/star/upvote 标注抓取日期和来源 URL
  • 无占位符/编造 URL: 所有来源链接真实可访问

Step 6: 未通过项降级(不修复就降级,不降级就删除)

Step 1-5 中发现的未通过项,按以下规则强制降级:

  • 关键数字无论文位置 → 删除数字,改为定性描述(如"显著提升")
  • 技术断言无论文位置 → 删除该断言,或加"分析认为"标记降级为推断
  • 团队背景仅有 L3/L4 来源 → 删除该断言,整段压缩为"信息不足"
  • 团队背景使用定性评价("最具影响力""核心人物"等)且无官方奖项支撑 → 删除
  • 社区观点仅有 L4 来源 → 改写为"有媒体报道该工作",不得归纳行业评价
  • 延伸阅读无法确认存在 → 删除该条目

Step 7: 证据覆盖率检查(最终门控)

统计以下指标,未达标则不允许输出最终报告:

  • 阿拉伯数字覆盖率: 正文中所有阿拉伯数字必须 100% 进入"断言与证据清单"。未达标 → 补齐后再输出
  • 核心结论 L1 覆盖: 核心结论的 5 条中至少 3 条有 L1 来源支撑。未达标 → 重写核心结论,删除无 L1 支撑的条目
  • 实验数字定位率: 实验部分(关键结果 + 消融)的数字中 ≥ 80% 带 (论文 Table/Figure X)。未达标 → 在报告开头添加 ⚠️ 实验结果定位不完整,建议对照原文验证
  • paper_locator_map 引用一致性: 断言与证据清单中"论文位置"列引用的所有 Section/Table/Figure 编号必须存在于 paper_locator_map 中。存在不匹配 → 修正编号或标"未定位"
  • paper_locator_map 存在性: 最终报告必须包含"论文定位映射"section 且非空。缺失 → 从 Phase 0 输出中补入

将报告保存为文件: ./{paper_name_en}-paper-analysis-{date}.md,保存在当前工作目录。

文件名规则: {paper_name_en} 使用论文标题的英文简写形式(小写、连字符分隔),例如:

  • Attention Is All You Need → attention-is-all-you-need
  • BERT: Pre-training of Deep Bidirectional Transformers → bert
  • GPT-4 Technical Report → gpt-4-technical-report

Error Handling

  • Agent 超时或失败: 如果某个 Agent 未返回结果,在报告中标注该维度为"数据不足,建议读者自行查阅",其余维度照常分析
  • 论文原文无法获取: 在报告开头标注"⚠️ 未获取到论文全文,以下分析基于摘要和外部来源,可信度较低",并在断言清单中将所有断言的置信度上限设为 Medium
  • 论文无法识别: 提示用户确认论文标题或提供链接,可给出模糊匹配建议
  • 新论文信息不足: 如果搜索结果极少(如刚发布的 preprint),合并相关维度,减少重复的"信息不足"提示;社区反馈维度标注"论文较新,社区反馈尚不充分"
  • 多版本论文: 如遇同一论文有多个版本(如 arXiv v1/v2),优先分析最新版本,并注明版本信息

Notes

  • 每个 Agent 的输出限制 800 字,超出时优先保留有一手源支撑的内容
  • 综合分析阶段重在 交叉关联事实校验,而非简单拼接 7 个维度的结果
  • 核心结论应帮助读者判断"这篇论文是否值得我花时间精读"
  • 输出语言跟随 {lang},默认中文
  • 全部来源链接必须真实可访问,不得编造
  • "断言与证据清单"是本技能区别于普通论文总结的核心价值——它让读者知道哪些内容可信、哪些需要自行核查
Weekly Installs
11
Repository
jssfy/k-skills
GitHub Stars
1
First Seen
2 days ago
Installed on
gemini-cli11
github-copilot11
codex11
kimi-cli11
cursor11
amp11