paper-analysis
Paper Analysis — 一键深度分析一篇论文
输入论文 URL、PDF 路径或标题,自动并行采集七个维度的信息,交叉分析后输出结构化研究笔记。
When to Use
当用户请求以下操作时触发:
- "分析这篇论文 https://arxiv.org/abs/..." / "分析 xxx 论文"
- "paper analysis: Attention Is All You Need"
- "读这篇 paper" / "帮我分析下这篇论文"
- "这篇论文讲什么" / "论文笔记 xxx"
来源可信度规则(全局,所有 Phase/Agent 均适用)
一手源优先原则
论文原文是唯一的事实权威。所有关键数字、方法描述、实验结果必须能在论文原文中定位到具体章节/图表/公式。外部来源仅用于补充解读和社区反馈。
来源分层
| 层级 | 来源类型 | 用途 | 标注要求 |
|---|---|---|---|
| L1 一手源 | 论文原文(arXiv HTML/PDF)、会议官方页(USENIX/ACM/IEEE/NeurIPS)、作者主页 | 关键事实、数字、方法描述 | 标注 Section/Figure/Table 编号 |
| L2 强可信 | Google Scholar、Semantic Scholar、DBLP、OpenReview 官方评审、实验室主页 | 引用量、h-index、评审意见 | 标注页面 URL + 抓取日期 |
| L3 补充解读 | 知名技术博客(如作者本人博客、机构官方博客)、学术社区讨论(Reddit/Twitter 原帖) | 社区反馈、通俗解读 | 明确标注为"外部解读",不作为事实依据 |
| L4 低可信 | 新闻稿、聚合站、媒体转述、交易所/营销类网站 | 不得用于支撑关键事实,仅可在社区反馈维度作为"舆情信号"引用 | 标注"低可信来源" |
段内引用与断言标注
禁止"末尾堆链接"模式。所有关键断言必须在行文中就地标注来源:
- 论文原文事实:
(论文 Section 3.2, Figure 4) - 外部可验证数据:
(Google Scholar, 2026-03-14 抓取, 1,234 citations) - 外部解读:
([来源名称](url), 外部解读) - 分析者推断:必须用"分析认为"/"推断"等措辞标记,不得伪装为事实
- 时间敏感指标(引用量、star、upvote):必须标注抓取日期 + 来源 URL;无法从 L1/L2 获取则不写数字,改为"截至 {date} 未找到可靠公开数据"
Phase 0: 论文定位与输入解析
硬约束(不可跳过): 禁止检测本地是否存在已有分析文件。无论工作目录下有无同名或相似文件,都必须从头执行完整分析流程,重新生成报告。
根据用户输入,识别输入类型并执行对应流程:
输入路径
| 输入类型 | 处理流程 |
|---|---|
| URL | WebFetch 抓取页面,提取标题、作者、摘要、机构 |
| PDF 路径 | Read 读取 PDF 前几页,提取标题、作者、摘要 |
| 标题/关键词 | WebSearch 搜索定位,再 WebFetch 获取详情 |
URL 输入处理
-
arXiv 链接
Step 1: WebFetch https://arxiv.org/abs/{id} → 提取标题、作者、摘要、提交日期 Step 2: 尝试 WebFetch https://arxiv.org/html/{id} 获取论文 HTML 全文(用于后续 Agent 引用具体章节) Step 3: WebSearch "{paper_title} conference accepted" 或 "{paper_title} published venue" → 确认发表会议/期刊 -
其他 URL(Semantic Scholar、ACL Anthology、OpenReview 等)
WebFetch {url} → 提取标题、作者、摘要、机构、venue
PDF 输入处理
Read {pdf_path} (前 5 页)
→ 提取标题、作者、摘要、机构
→ 记录论文结构(章节标题列表)供后续引用
→ 如信息不全,WebSearch "{提取到的标题}" 补充
标题/关键词输入处理
Step 1: WebSearch "{论文标题/关键词} arxiv OR paper OR conference"
→ 找到论文链接
Step 2: WebFetch {找到的链接}
→ 提取完整信息
Step 3: 如果找到 arXiv 链接,尝试获取 HTML 全文
如果搜索结果不明确,向用户确认后再继续。
获取论文原文(关键步骤,不可跳过)
在进入 Phase 1 之前,必须尝试获取论文原文内容作为一手事实源:
- arXiv HTML(首选):
WebFetch https://arxiv.org/html/{id}— 获取结构化全文 - PDF:如果用户提供了 PDF 路径,
Read {pdf_path}读取全文 - 会议官方页面:
WebFetch {conference_url}— 部分会议提供 HTML 版本
将获取到的论文原文内容(或关键章节摘要)存入 {paper_content} 变量,传递给每个 Agent。如果无法获取全文,在 {paper_content} 中标注"未获取到论文全文,Agent 需通过搜索补充"。
生成论文定位映射(必须,不可跳过)
从 {paper_content} 中提取论文的结构骨架,生成 {paper_locator_map},后续所有 Agent 必须引用此 map 中的编号:
从论文原文中提取:
1. Section 编号与标题(如 "Section 3.2: DualPath Architecture")
2. 所有 Figure 编号与标题(如 "Figure 3: System overview")
3. 所有 Table 编号与标题(如 "Table 2: Offline throughput comparison")
4. 所有 Algorithm 编号与标题(如有)
5. References 中被引用 ≥ 2 次的前置论文编号与标题
输出格式:
## paper_locator_map
### Sections
- Section 1: Introduction
- Section 2: Background
- Section 3: Method
- Section 3.1: ...
- Section 3.2: ...
- ...
### Figures
- Figure 1: ...
- Figure 2: ...
### Tables
- Table 1: ...
- Table 2: ...
### Key References
- [12] Attention Is All You Need (Vaswani et al., 2017)
- [15] ...
如果论文 HTML 无编号(部分 arXiv 论文),用 Section 标题作为定位锚点(如 "Evaluation > Offline Throughput")。
此步骤的输出 {paper_locator_map} 必须传给每个 Agent,作为引用时的"合法编号列表"。Agent 引用的 Section/Figure/Table 编号必须来自此 map。
确定关键变量
以下变量后续所有 Agent 都需要用到:
{paper_title}— 完整论文标题{authors}— 作者列表{institution}— 机构/团队{year}— 发表年份{venue}— 发表会议/期刊(未发表则标注 arXiv preprint){abstract}— 摘要{paper_content}— 论文原文内容或关键章节(作为一手事实源传给每个 Agent){paper_locator_map}— 论文结构骨架(Section/Figure/Table/Algorithm 编号列表,Agent 引用必须来自此 map){paper_type}— 论文类型(学术论文 / 技术报告 / 白皮书){lang}— 输出语言(用户指定或默认中文){date}— 分析日期,格式 YYYY-MM-DD{paper_name_en}— 英文文件名形式(小写、连字符分隔)
论文类型适配提示
传给每个子代理:
- 学术论文 → "这是学术论文,侧重分析研究方法、实验设计、理论贡献"
- 技术报告 → "这是技术报告,侧重分析系统设计、工程实践、性能指标"
- 白皮书 → "这是白皮书,侧重分析行业洞察、方案设计、商业价值"
- Survey/综述 → "这是综述论文,侧重分析分类框架、研究脉络、未来方向"
如果无法确定论文类型或关键信息,先用一次 WebSearch 快速查询,不要跳过这一步。
Phase 1: 并行数据采集 (7 个 Subagent)
关键要求: 以下 7 个 Agent 必须放在同一条消息中发出,确保并行执行。
每个 Agent 使用 subagent_type: "general-purpose"。
全局 Agent 指令分为两部分,分别放在每个 Agent prompt 的开头和末尾:
{前置引用约束}(放在每个 Agent prompt 的任务描述之前,作为硬约束前置):
## 硬约束(违反将导致输出被丢弃)
**可用的论文定位编号**: {paper_locator_map}
你引用的 Section/Figure/Table 编号**必须来自上述 map**,不得编造不存在的编号。
1. 每个关键数字/断言后必须**就地**括号标注论文位置: `(论文 Section X.Y, Table/Figure Z)`
- ✅ `离线吞吐提升 1.87×(论文 Table 2, Section 5.1)`
- ❌ `离线吞吐提升 1.87×(来源: arxiv html)`
- ❌ `离线吞吐提升 1.87×` (无标注)
- ❌ 段落末尾统一放一个链接或"参见论文 Section 5" — 这是**段末堆链接**,不算引用
- HTML 无编号时用 Section 标题: `(论文 "Evaluation > Offline Throughput")`
2. **非数字的技术断言也需标注**:具体机制(如"使用 RDMA 直接传输")、设计决策(如"采用 io_uring 旁路内核")、性能特征(如"近线性扩展")→ 必须标注论文中描述该机制的 Section/Figure
3. L4 来源(新闻稿/聚合站/交易所)不得支撑任何事实断言
4. 无法定位到论文具体位置的数字或技术细节 → 不写,改为定性描述或省略
5. 分析推断必须用"分析认为/推断"标记
{输出格式要求}(放在每个 Agent prompt 的末尾):
## 来源与引用规则(必须遵守)
1. **一手源优先**:论文原文是唯一事实权威。关键数字和方法描述必须能定位到论文的具体 Section/Figure/Table。
2. **段内引用**:每个关键断言后必须括号标注来源,格式:
- 论文原文:(论文 Section X.Y, Figure Z)
- 外部验证数据:(来源名, URL, 抓取日期)
- 外部解读:([来源名](url), 外部解读)
3. **来源分层**:
- L1(论文原文、会议官方页、作者主页)→ 可支撑关键事实
- L2(Google Scholar、Semantic Scholar、OpenReview)→ 可支撑引用量等指标
- L3(技术博客、社区讨论)→ 仅作补充解读,标注"外部解读"
- L4(新闻稿、聚合站)→ 不得用于关键事实
4. **不确定就不写**:无法从 L1/L2 来源验证的具体数字,不写数字,改为"未找到可靠数据"。
5. **区分事实与推断**:论文原文事实直接陈述;分析者推断必须用"推断/分析认为"标记。
6. **字数上限 800 字**:超出时优先保留有一手源支撑的内容,砍掉无法验证的描述。
## 必须的输出格式
在你的分析文本之后,**必须**附加一个断言-位置映射表:
### 断言-位置映射
| 断言/数字 | 论文位置 | 来源层级 |
|-----------|---------|---------|
| {每个关键数字或事实断言} | Section X, Table Y / 来源URL | L1/L2/L3/L4 |
要求: 至少覆盖你输出中的所有阿拉伯数字。无法定位的填"未定位"。
Agent 1: 背景与动机
description: "研究{paper_title}背景与动机"
prompt 模板:
{前置引用约束}
你是学术研究分析专家。请研究论文《{paper_title}》({authors}, {year})的研究背景与动机。
论文摘要:{abstract}
论文原文(如有):{paper_content}
论文定位映射:{paper_locator_map}
论文类型提示:{type_hint}
输出语言:{lang}
任务:
1. **优先从论文原文提取**:从 {paper_content} 中定位 Introduction / Related Work 部分,提取:
- 研究领域现状和前人工作
- 核心问题和动机
- 标注具体 Section 编号
2. 使用 WebSearch 搜索补充信息(至少 1 次):
- "{paper_title} motivation background related work"
→ 补充论文未明确说明的领域背景
3. 使用 WebFetch 访问至少 1 个 L1/L2 来源页面验证
整理以下信息:
**研究领域现状:**
- 该领域的发展脉络和现状(标注信息来源)
- 前人工作的主要贡献和局限(标注论文 Section)
**核心问题与动机:**
- 论文要解决的核心问题(标注论文 Section)
- 现有方法为什么不够好(标注论文中的论据)
- 作者的切入角度和研究假设
{输出格式要求}
Agent 2: 团队与作者背景
description: "研究{paper_title}团队背景"
prompt 模板:
{前置引用约束}
## 本 Agent 专属约束
- **禁止来源**: 36kr、ResearchGate、新闻稿、媒体报道 — 不得作为团队背景的任何支撑
- 入职时间、实习经历等履历细节 → 除非作者主页明确写明,否则**不写**(不是标"待核实",是不写)
- 每条断言标注具体来源页面路径(如 "xinjin.github.io > Publications"),不得笼统写"来源: 作者主页"
- **禁止定性评价**: "最具影响力""核心人物""标志性学者""领军团队"等 → 除非有官方奖项/头衔页面支撑,否则不写
- **宁缺毋滥**: 若无法从作者主页/Scholar/DBLP 验证,整段缩减为"作者所属机构 + 与本文直接相关的 1-2 篇前序工作",禁止补充履历叙事。信息不足时本维度压缩为 2-4 句即可
你是学术情报分析专家。请研究论文《{paper_title}》作者团队的背景信息。
作者列表:{authors}
机构:{institution}
输出语言:{lang}
任务:
1. 使用 WebSearch 搜索以下关键词(至少搜 2 次不同关键词):
- "{第一作者} {institution} research site:scholar.google.com OR site:dblp.org OR site:semanticscholar.org"
- "{通讯作者} homepage OR lab"
2. 使用 WebFetch 访问至少 1 个作者主页、Google Scholar 或 DBLP 页面(仅 L1/L2 来源)
整理以下信息:
**核心作者介绍:**
- 第一作者和通讯作者的背景(职位、研究方向、代表作)
- 所属机构/实验室的研究特色
- **仅列出可从官方主页或 Google Scholar 确认的荣誉/奖项**
- 无法从 L1/L2 来源验证的信息 → **不写**(不是标"待核实")
**研究脉络:**
- 团队在该领域的前序工作(列出具体论文名称和会议)
- 与本论文的延续/突破关系
**特别注意**: 团队背景是最容易出现幻觉的维度。
- 所有奖项、项目归属、影响力定性(如"最具影响力")必须有 L1/L2 来源支撑,否则不写
- **入职时间、实习经历、组织归属**等履历细节幻觉风险极高,除非在作者主页或论文首页明确写明,否则**不写**
{输出格式要求}
Agent 3: 技术方法与创新点
description: "分析{paper_title}技术方法"
prompt 模板:
{前置引用约束}
你是技术方法分析专家。请分析论文《{paper_title}》({authors}, {year})的核心技术方法和创新点。
论文摘要:{abstract}
论文原文(如有):{paper_content}
论文定位映射:{paper_locator_map}
论文类型提示:{type_hint}
输出语言:{lang}
任务:
1. **优先从论文原文提取**:从 {paper_content} 中定位 Method / Approach / System Design 部分,提取:
- 核心方法/算法/架构
- 关键技术组件和工作流程
- 与前人工作的区别(论文中的 comparison)
- 标注具体 Section/Figure/Algorithm 编号
2. 使用 WebSearch 搜索补充解读(至少 1 次):
- "{paper_title} method explained" 或 "{paper_title} 方法解析"
→ 获取通俗解读作为补充(标注为 L3 外部解读)
3. 使用 WebFetch 访问至少 1 个技术解读页面
整理以下信息:
**核心方法:**
- 论文提出的核心方法/算法/架构(标注论文 Section/Figure)
- 关键技术组件和工作流程
- 数学/算法层面的核心思想(用直觉解释,避免纯公式)
**创新点:**
- 与前人工作的关键区别(列 2-3 点,标注论文中的论据)
- 每个创新点为什么重要
- 技术贡献的本质(新架构 / 新训练策略 / 新理论框架等)
{输出格式要求}
Agent 4: 实验与结果评估
description: "分析{paper_title}实验结果"
prompt 模板:
{前置引用约束}
你是实验评估专家。请分析论文《{paper_title}》({authors}, {year})的实验设计和结果。
论文摘要:{abstract}
论文原文(如有):{paper_content}
论文定位映射:{paper_locator_map}
论文类型提示:{type_hint}
输出语言:{lang}
任务:
1. **必须从论文原文提取**:从 {paper_content} 中定位 Experiments / Evaluation / Results 部分,提取:
- 实验设置(数据集、基线、指标)
- 关键结果数字(标注具体 Table/Figure 编号)
- 消融实验发现
2. 使用 WebSearch 搜索补充(至少 1 次):
- "{paper_title} results benchmark comparison"
→ 了解社区对实验结果的评价
3. 使用 WebFetch 访问至少 1 个 L1/L2 来源验证
整理以下信息:
**实验设计:**
- 使用的数据集/基准(标注论文 Section)
- 基线方法(baseline)有哪些
- 评估指标
**关键结果:**
- 主要实验结果(标注论文 Table/Figure 编号)
- 与 baseline 的关键对比数字
- 消融实验的主要发现(如有,标注 Table/Figure)
- 结果是否充分验证了论文的核心 claim
**特别注意**: 实验数字是最需要精确的内容。所有数字必须能在论文原文的具体 Table/Figure 中找到,不得从博客或新闻稿中提取实验数据。
{输出格式要求}
Agent 5: 优缺点与局限性
description: "分析{paper_title}优缺点"
prompt 模板:
{前置引用约束}
你是学术评审专家。请分析论文《{paper_title}》({authors}, {year})的优缺点和局限性。
论文摘要:{abstract}
论文原文(如有):{paper_content}
论文定位映射:{paper_locator_map}
论文类型提示:{type_hint}
输出语言:{lang}
任务:
1. **优先从论文原文提取**:从 {paper_content} 中定位 Discussion / Limitations / Conclusion 部分,提取:
- 作者自述的局限性(标注 Section)
- 作者讨论的适用边界
2. 使用 WebSearch 搜索以下关键词(至少搜 2 次不同关键词):
- "{paper_title} limitations criticism"
- "{paper_title} review openreview" 或 "{paper_title} 不足 局限"
3. 使用 WebFetch 访问至少 1 个包含论文评价的页面(优先 OpenReview 官方评审)
整理以下信息:
**优点:**
- 方法论层面的优点(2-3 点,标注论文中的支撑)
- 实验层面的优点
**局限性:**
- 作者自述的局限(标注论文 Section,这是最可靠的)
- 外部评审/社区指出的不足(标注来源和层级)
- 方法的适用边界和前置条件
**改进方向:**
- 可能的改进思路(1-2 点)
{输出格式要求}
Agent 6: 社区反馈与影响力
description: "研究{paper_title}社区影响"
prompt 模板:
{前置引用约束}
你是学术影响力分析专家。请研究论文《{paper_title}》({authors}, {year})的社区反馈和学术影响力。
论文摘要:{abstract}
输出语言:{lang}
任务:
1. 使用 WebSearch 搜索以下关键词(至少搜 2 次不同关键词):
- "{paper_title} site:scholar.google.com OR site:semanticscholar.org"
- "{paper_title} github implementation" 或 "{paper_title} discussion reddit twitter"
2. 使用 WebFetch 访问:
- **必须**: 至少 1 个 L2 来源(Google Scholar 或 Semantic Scholar)获取引用数据
- **可选**: 社区讨论页面
整理以下信息:
**学术影响力:**
- 引用量(标注来源 + 抓取日期,如"Google Scholar, {date}, N citations")
- 被哪些重要后续工作引用(列出具体论文名称)
- 是否获得最佳论文奖(仅从会议官方页面确认,无法确认则不写)
**社区反馈:**
- 业界/学界的主要评价(标注来源层级)
- 开源实现情况(GitHub URL + star 数 + 抓取日期)
- 工业界采用情况(仅写有 L1/L2 来源支撑的)
- 争议或批评(标注来源)
**特别注意**:
- 本维度信息时效性最强,所有数字指标必须标注抓取日期和来源 URL
- 新论文(发布 < 6 个月)社区反馈可能不充分,如实标注"论文较新,数据有限",不要编造
- L4 来源(新闻稿/聚合站)仅可作为"舆情信号"引用,不可作为事实依据,且必须标注"L4 低可信"
- 禁止从 L4 来源提取引用量、star 数等数字指标
{输出格式要求}
Agent 7: 术语表与延伸阅读
description: "整理{paper_title}术语与延伸阅读"
prompt 模板:
{前置引用约束}
你是学术知识整理专家。请整理论文《{paper_title}》({authors}, {year})的关键术语和推荐延伸阅读。
论文摘要:{abstract}
论文原文(如有):{paper_content}
论文定位映射:{paper_locator_map}
论文类型提示:{type_hint}
输出语言:{lang}
任务:
1. **优先从论文原文提取**:从 {paper_content} 中提取:
- 论文定义或频繁使用的关键术语
- References 部分引用的核心论文
2. 使用 WebSearch 搜索补充(至少 1 次):
- "{paper_title} related papers survey"
→ 了解该方向的前置和后续工作
3. 使用 WebFetch 访问至少 1 个 L1/L2 来源验证
整理以下信息:
**术语索引表:**
- 列出论文中 10-15 个关键术语/概念
- 每个条目包含: 术语名称、简要定义(1-2 句)
- 优先提取论文中有明确定义的术语(标注 Section)
- 标注术语之间的关联关系
**延伸阅读:**
- 前置阅读(理解本文需要先读的 2-3 篇论文,**必须从论文 References 中选取**,标注引用编号如 [12])
- 后续工作(基于本文的重要后续研究 3-4 篇,必须通过 WebSearch/WebFetch 确认真实存在)
- 每篇包含: 标题、作者、年份、与本文的关联说明、**来源**(论文 References [N] / Google Scholar / Semantic Scholar)
- **不得列出无法通过搜索确认的论文**——如果搜索不到,就不列
{输出格式要求}
Phase 2: 综合分析 (主线程)
等待 7 个 Agent 全部返回后,在主线程中完成以下分析。
Step 1: 信息汇总与事实校验
将 7 个 Agent 的结果整合,执行:
- 来源层级审查:检查各 Agent 返回的断言是否有合格来源支撑,将仅有 L4 来源支撑的"事实"降级为"待验证"
- 一致性信号:多个 Agent 从不同来源提到同一结论 = 高置信度
- 补充关系:Agent 1 的动机与 Agent 3 的方法形成问题→方案对应
- 矛盾信号:不同来源对某观点评价不一致 = 在报告中标注争议
- 整理所有来源 URL,按层级分类
Step 1.5: 论文位置映射表(硬门控)
从所有 Agent 返回的"断言-位置映射表"中汇总,合并去重。然后按以下规则分类处理:
- 合格条目(有 Section/Table/Figure 编号): 直接进入报告
- 仅有 URL 无编号的条目: 回到 {paper_content} 全文搜索定位,补上编号
- 搜索后仍无法定位的条目: 标注"位置待定",在报告中该数字改为定性描述(如"显著提升"替代具体倍数)
- 来自 L4 来源的条目: 从事实段落移除,仅可在社区反馈段引用
汇总格式:
| 数字/断言 | 论文位置 | 来源 Agent | 状态 |
|-----------|---------|-----------|------|
| 1.87× 离线吞吐提升 | Table X, Section Y | Agent 4 | 合格 |
| 28.8× 算力增长 | Section 1, Figure Z | Agent 1 | 合格 |
| 某个数字 | 未定位 | Agent 3 | 降级为定性描述 |
| ... | ... | ... | ... |
门控条件: 合格条目 < 10 条时,说明论文原文提取不充分,需要重新 WebFetch 论文 HTML 并补充定位,而非直接进入 Phase 3。
Step 2: 交叉关联
在 7 个维度之间建立关联:
- 动机 ↔ 方法映射: 将背景问题(Agent 1)与技术方案(Agent 3)一一对应
- 方法 ↔ 实验验证: 检查创新点(Agent 3)是否在实验(Agent 4)中得到充分验证
- 优缺点 ↔ 社区反馈: 对比作者自述局限(Agent 5)与社区评价(Agent 6)是否一致
- 团队背景 ↔ 研究脉络: 将团队前序工作(Agent 2)与本文的延续/突破关系标注
- 术语 ↔ 内容锚定: 验证术语(Agent 7)与各维度内容的对应关系
Step 3: 核心结论提炼
基于以上分析,撰写 3-5 句话的核心结论:
- 这篇论文最核心的贡献是什么
- 最值得关注的 1-2 个创新点
- 实际影响和应用价值
- 最适合什么样的读者
Phase 3: 输出报告
按以下 Markdown 格式输出最终报告:
# 《{paper_title}》论文深度分析
> **作者**: {authors} | **机构**: {institution} | **发表**: {venue} {year} | **分析日期**: {date}
## 核心结论
<!-- 硬格式:每条结论必须是独立条目,带引用槽位 -->
- **核心贡献**: {一句话}(论文 Section X, Table/Figure Y)
- **关键创新**: {一句话}(论文 Section X)
- **关键结果**: {一句话,含数字}(论文 Table X, Section Y)
- **适合读者**: {一句话}
- **局限提示**: {一句话}(论文 Section X)
---
## 一、背景与动机
### 研究领域现状
{该领域的发展脉络和现状,前人工作的贡献与局限}
{每个关键断言后标注来源,如(论文 Section 1, [2])}
### 核心问题与动机
{论文要解决的核心问题、现有方法的不足、作者的切入角度}
{标注论文 Section}
---
## 二、团队与作者背景
### 核心作者
<!-- 仅写作者主页/Google Scholar/DBLP 可直接证实的内容,无法证实的不写 -->
{第一作者和通讯作者的背景、研究方向、代表作}
{所有荣誉/奖项标注验证来源(具体页面路径),无法从 L1/L2 验证的不写}
### 研究脉络
{团队前序工作与本文的关系、实验室研究特色}
---
## 三、技术方法与创新点
### 核心方法
<!-- 每个技术机制(如"使用 RDMA"、"采用 io_uring")都必须标注描述该机制的论文 Section/Figure -->
{论文提出的核心方法/算法/架构(标注论文 Section/Figure)}
{关键技术组件和工作流程,每个组件标注论文 Section}
### 创新点
1. **{创新点一}**: {描述及为什么重要}(论文 Section X.Y)
2. **{创新点二}**: {描述及为什么重要}(论文 Section X.Y)
3. **{创新点三}**: {描述及为什么重要}(论文 Section X.Y)
---
## 四、实验与结果评估
### 实验设计
<!-- 论文位置列不可为空,无法定位则填"未定位" -->
| 项目 | 详情 | 论文位置 |
|------|------|---------|
| 数据集 | {使用的数据集/基准} | Section X(不可为空) |
| 基线方法 | {baseline 列表} | Section X(不可为空) |
| 评估指标 | {主要指标} | Section X(不可为空) |
### 关键结果
<!-- 硬格式:每条结果一行,数字紧跟引用,禁止段末堆链接 -->
- {指标名}: {数字}(论文 Table X, Section Y)
- {指标名}: {数字}(论文 Table X, Section Y)
- {指标名}: {数字}(论文 Figure X, Section Y)
- ...
### 消融实验
<!-- 硬格式:每条消融发现一行,同样逐个标注 -->
- {消融变量}: {去掉后的数字变化}(论文 Table X)
- {消融变量}: {去掉后的数字变化}(论文 Table X)
- ...
---
## 五、优缺点与局限性
### 优点
{方法论和实验层面的优点,标注论文支撑}
### 局限性
{作者自述局限(标注论文 Section)、社区指出的不足(标注来源层级)、适用边界}
### 改进方向
{可能的改进思路}
---
## 六、社区反馈与影响力
### 学术影响力
{引用量(来源 + 抓取日期)、重要后续工作、获奖情况(仅官方确认的)}
### 社区反馈
**已验证事实:**
- {可独立验证的客观信息,如平台收录、讨论帖链接、开源仓库 URL + star + 抓取日期}
**外部讨论:**
- {来自社区的具体评论或观点}(来源层级, URL)
**分析判断:**
- 分析认为:{基于以上事实的推理和综合判断}
---
## 七、术语表与延伸阅读
### 术语索引
<!-- 论文位置列不可为空,无法定位则填"未定位" -->
| 术语 | 定义 | 论文位置 |
|------|------|---------|
| {术语1} | {简要定义} | Section X(不可为空) |
| {术语2} | {简要定义} | Section X(不可为空) |
| ... | ... | ... |
### 延伸阅读
**前置阅读(理解本文的基础):**
<!-- 前置阅读必须来自论文 References,标注引用编号 -->
| 论文 | 作者 | 年份 | 关联说明 | 来源 |
|------|------|------|----------|------|
| {论文1} | {作者} | {年份} | {与本文的关联} | References [N] |
**后续工作(已发表的相关研究):**
<!-- 后续工作必须通过搜索确认真实存在,不得编造 -->
| 论文 | 作者 | 年份 | 关联说明 | 来源 |
|------|------|------|----------|------|
| {论文1} | {作者} | {年份} | {与本文的关联} | Google Scholar / Semantic Scholar |
**潜在研究方向(未发表/作者设想):**
- {方向1}:{简要描述}(来源:论文 Section X / 作者公开讨论)
- {方向2}:{简要描述}
---
## 论文定位映射(paper_locator_map)
<!-- 必须原样输出 Phase 0 生成的 paper_locator_map,作为引用审计基准 -->
<!-- 正文中所有 `(论文 Section/Table/Figure X)` 引用的编号必须出现在此 map 中 -->
{paper_locator_map 原文}
---
## 断言与证据清单
<!-- 必须覆盖正文中出现的所有阿拉伯数字,无遗漏 -->
| # | 关键断言 | 论文位置(须匹配 paper_locator_map) | 外部来源 | 来源层级 | 置信度 | 性质 |
|---|---------|--------------------------------------|---------|--------|--------|------|
| 1 | {断言描述} | Section X, Table Y | — | L1 | High | 论文原文 |
| 2 | {断言描述} | — | {URL, 抓取日期} | L2 | Medium | 外部验证 |
| 3 | {断言描述} | — | — | — | Low | 分析推断 |
| ... | ... | ... | ... | ... | ... | ... |
> 置信度说明:**High** = L1 来源直接支撑;**Medium** = L2 来源支撑或多个 L3 来源交叉验证;**Low** = 仅有 L3/L4 来源或为分析推断
> **审计方法**: "论文位置"列中的每个 Section/Table/Figure 编号必须能在上方 paper_locator_map 中找到对应条目。找不到 → 该行标红待查。
---
## 来源登记表
<!-- 所有被引用的来源必须登记,便于审查"来源是否被滥用" -->
| # | 来源 | 层级 | 用于支撑 | 抓取日期 |
|---|------|------|---------|---------|
| 1 | 论文原文: [{paper_title}]({url}) | L1 | 方法、实验、局限性 | — |
| 2 | {作者主页 URL} | L1 | 团队背景 | {date} |
| 3 | {Google Scholar URL} | L2 | 引用量 | {date} |
| 4 | {技术博客 URL} | L3 | 外部解读 | {date} |
| ... | ... | ... | ... | ... |
> **L4 来源不得出现在此登记表中。** 如需引用 L4 来源,仅可在正文"社区反馈 > 外部讨论"中内联标注 `(L4 低可信)`,不登记。常见 L4 来源:`bitcoinethereumnews.com`、`aihaberleri.org`、`MEXC News`、`36kr`、`新浪科技`、`coindesk`(非技术原文时)。
---
*本笔记由 AI 自动生成。关键数字和事实已尽量标注论文原文位置,建议结合原文验证。"断言与证据清单"可快速定位需要核查的内容。*
Phase 3.5: 报告校验与修复(写入文件前必须执行,不可跳过)
Step 1: 断言引用扫描
逐行扫描报告,对每个阿拉伯数字和每个具体技术机制描述:
- 紧跟
(论文 Section/Table/Figure X)且编号存在于 paper_locator_map → 通过 - 段落末尾有链接但数字/断言本身无标注 → 不合格(这是"段末堆链接"反模式)→ 把标注移到数字/断言后面
- 有 URL 但无 Section 编号 → 回到 Step 1.5 映射表查找,补上编号或改为定性描述
- 无任何标注 → 补上标注或删除该数字/断言
必须捕获的不合格模式(逐字符扫描以下 pattern):
Table或Figure后无编号 → 补编号或改为 Section 引用论文 Table, Section X— Table 缺编号(逗号前应为Table N)→ 补上 Table 编号或仅保留 Section(论文 Section X)中 X 不在 paper_locator_map → 回查论文,修正编号或标"未定位"(来源: arxiv html)或(来源: 论文)— 这不是定位引用 → 替换为具体 Section/Table 编号- 引用的 Table/Figure 编号在 paper_locator_map 中不存在 → 回查论文或删除该引用
扫描范围特别关注:核心结论、关键结果、消融实验、技术方法中的具体机制名称
Step 2: 来源层级执行
逐行扫描报告全文(不仅是"来源:"行),搜索以下 L4 域名关键词:
36kr/ResearchGate/MEXC/aihaberleri/bitcoinethereumnews/Eyerys/新浪科技/coindesk/techcrunch(非第一手技术文章时)- 上述域名出现在团队背景、技术方法、实验评估、优缺点段落 → 移除该来源支撑的断言,或将断言移入"社区反馈 > 外部讨论"并标
(L4 低可信) - 上述域名出现在参考来源区 → 移除,L4 不入参考来源区
Step 3: 结构完整性
- 实验设计表有"论文位置"列且非空
- 术语索引表有"论文位置"列且非空
- 社区反馈分为: 已验证事实 / 外部讨论 / 分析判断
- 来源登记表存在,每行有层级和"用于支撑"列,无 L4 来源
- 断言与证据清单存在且 ≥ 10 条
Step 4: 团队背景审查
- 无 36kr/ResearchGate/媒体稿来源
- 无法从作者主页/Scholar 直接证实的履历细节 → 删除(不是标"待核实")
- "据报道"/"据...报道"/"reported"/"据媒体"/"有报道称" → 如紧跟内容无 L1/L2 来源括号标注 → 删除整句("据报道"本身就是 L4 信号词)
- 具体硬件采购数量(如"采购 N 块 GPU")→ 除非来源为公司官方公告或 SEC 文件 → 删除
Step 5: 其他校验
- 推断有标记: 比较级/评价性表述("较快""显著""典范")标注了来源,或用"分析认为"标记
- 延伸阅读: 前置阅读必须来自论文 References(标注 [N]);后续工作必须有来源列(Google Scholar / Semantic Scholar);无法确认存在的条目删除
- 时间敏感指标: 引用量/star/upvote 标注抓取日期和来源 URL
- 无占位符/编造 URL: 所有来源链接真实可访问
Step 6: 未通过项降级(不修复就降级,不降级就删除)
Step 1-5 中发现的未通过项,按以下规则强制降级:
- 关键数字无论文位置 → 删除数字,改为定性描述(如"显著提升")
- 技术断言无论文位置 → 删除该断言,或加"分析认为"标记降级为推断
- 团队背景仅有 L3/L4 来源 → 删除该断言,整段压缩为"信息不足"
- 团队背景使用定性评价("最具影响力""核心人物"等)且无官方奖项支撑 → 删除
- 社区观点仅有 L4 来源 → 改写为"有媒体报道该工作",不得归纳行业评价
- 延伸阅读无法确认存在 → 删除该条目
Step 7: 证据覆盖率检查(最终门控)
统计以下指标,未达标则不允许输出最终报告:
- 阿拉伯数字覆盖率: 正文中所有阿拉伯数字必须 100% 进入"断言与证据清单"。未达标 → 补齐后再输出
- 核心结论 L1 覆盖: 核心结论的 5 条中至少 3 条有 L1 来源支撑。未达标 → 重写核心结论,删除无 L1 支撑的条目
- 实验数字定位率: 实验部分(关键结果 + 消融)的数字中 ≥ 80% 带
(论文 Table/Figure X)。未达标 → 在报告开头添加⚠️ 实验结果定位不完整,建议对照原文验证 - paper_locator_map 引用一致性: 断言与证据清单中"论文位置"列引用的所有 Section/Table/Figure 编号必须存在于 paper_locator_map 中。存在不匹配 → 修正编号或标"未定位"
- paper_locator_map 存在性: 最终报告必须包含"论文定位映射"section 且非空。缺失 → 从 Phase 0 输出中补入
将报告保存为文件: ./{paper_name_en}-paper-analysis-{date}.md,保存在当前工作目录。
文件名规则: {paper_name_en} 使用论文标题的英文简写形式(小写、连字符分隔),例如:
- Attention Is All You Need →
attention-is-all-you-need - BERT: Pre-training of Deep Bidirectional Transformers →
bert - GPT-4 Technical Report →
gpt-4-technical-report
Error Handling
- Agent 超时或失败: 如果某个 Agent 未返回结果,在报告中标注该维度为"数据不足,建议读者自行查阅",其余维度照常分析
- 论文原文无法获取: 在报告开头标注"⚠️ 未获取到论文全文,以下分析基于摘要和外部来源,可信度较低",并在断言清单中将所有断言的置信度上限设为 Medium
- 论文无法识别: 提示用户确认论文标题或提供链接,可给出模糊匹配建议
- 新论文信息不足: 如果搜索结果极少(如刚发布的 preprint),合并相关维度,减少重复的"信息不足"提示;社区反馈维度标注"论文较新,社区反馈尚不充分"
- 多版本论文: 如遇同一论文有多个版本(如 arXiv v1/v2),优先分析最新版本,并注明版本信息
Notes
- 每个 Agent 的输出限制 800 字,超出时优先保留有一手源支撑的内容
- 综合分析阶段重在 交叉关联 和 事实校验,而非简单拼接 7 个维度的结果
- 核心结论应帮助读者判断"这篇论文是否值得我花时间精读"
- 输出语言跟随
{lang},默认中文 - 全部来源链接必须真实可访问,不得编造
- "断言与证据清单"是本技能区别于普通论文总结的核心价值——它让读者知道哪些内容可信、哪些需要自行核查