skills/jssfy/k-skills/field-papers-survey

field-papers-survey

Installation
SKILL.md

Field Papers Survey — 一键领域论文全景调研

输入研究领域名称,自动调研核心会议/期刊,并行采集各子领域重要论文,按子领域分类、年代时间线、发展脉络三种视角组织输出,并自动对 Top 论文进行轻量深度分析。

When to Use

当用户请求以下操作时触发:

  • "调研计算机视觉论文" / "调研 NLP 论文"
  • "NLP 领域论文调研" / "推荐系统论文全景"
  • "survey computer vision papers" / "survey NLP papers"
  • "计算机视觉有哪些重要论文" / "机器学习经典论文有哪些"
  • "调研计算机科学-系统方向论文"(完整子领域 + 仅深入系统方向)

Phase 0: 解析输入

根据用户输入,识别以下信息:

  1. 领域名称(必需)

    • 提取用户消息中的领域名称
    • "调研计算机视觉论文" → 计算机视觉
    • "survey NLP papers" → 自然语言处理
  2. 聚焦方向(可选)

    • "调研计算机科学-系统方向论文" → 聚焦方向 = 计算机系统
    • 未指定则为全面调研,所有子领域均深入采集
  3. 是否跳过深度分析

    • 默认:自动执行 Phase 4(对 Top 论文进行轻量深度分析)
    • 仅当用户明确说"仅列表"/"不分析"/"跳过分析"/"只要论文列表" 时,才跳过 Phase 4
    • {skip_analysis}: true/false
  4. 确定关键变量(后续所有阶段都需要用到)

    • {field}: 领域中文名称(如"计算机视觉")
    • {field_en}: 领域英文名称,小写连字符分隔(如"computer-vision")
    • {focus}: 聚焦方向名称(可选,如"目标检测";未指定则为空)
    • {date}: 当天日期,格式 YYYY-MM-DD
    • {skip_analysis}: 是否跳过 Phase 4(默认 false)
  5. 输出目录: 当前工作目录

如果无法确定领域名称或对应英文名,先用一次 WebSearch 快速查询,不要跳过这一步


Phase 1: 会议/期刊全景梳理(主线程)

通过四渠道信息源框架,全面梳理领域的核心会议和期刊,并识别子领域划分。

四渠道信息源框架

渠道 信息源类型 搜索策略 优先级
学术组织 CCF 推荐目录、CORE 排名、中科院分区表、JCR、IEEE/ACM 分类 "{field}" CCF 推荐 会议 期刊 / "{field}" CORE ranking 最高
学术索引 Google Scholar Metrics、DBLP、Semantic Scholar、CSRankings "{field}" top conferences journals h5-index
社区共识 awesome-xxx 列表、知名 survey 论文的 venue 分布、领域博客 "{field}" top venues survey / "{field}" 顶会 顶刊 推荐
引用网络 高被引论文的发表 venue 分布、best paper award 历史 "{field}" best paper award / "{field}" most cited venue 验证

领域-信息源映射示例

领域 学术组织 学术索引 社区共识 引用网络
计算机视觉 CCF 推荐目录 Google Scholar Metrics awesome-cv CVPR/ICCV/ECCV best papers
NLP CCF 推荐目录 ACL Anthology awesome-nlp ACL/EMNLP/NAACL best papers
机器学习 CCF/CORE CSRankings awesome-ml NeurIPS/ICML/ICLR best papers
数据库 CCF 推荐目录 DBLP db-readings SIGMOD/VLDB best papers
生物医学 JCR/中科院分区 PubMed/SJR 高被引论文分布
经济学 SSCI/中科院分区 RePEc/IDEAS 高被引论文分布

执行要求

  • 总共执行 5-8 次 WebSearch + 2-3 次 WebFetch,覆盖四个渠道
  • 搜索顺序:先学术组织(最权威的分级标准),再学术索引(量化指标),再社区共识和引用网络
  • WebFetch 优先访问:CCF 推荐目录官方页面、Google Scholar Metrics 排名页

非 CS 领域适配:上述搜索策略默认适用于 CS 及相邻领域。对于非 CS 领域(如生物医学、材料科学、经济学),应将 CCF/CORE 替换为该领域的对应排名体系(如 SJR、Impact Factor、JCR 分区),CSRankings 替换为该领域的排名工具。

语言策略:学术论文以英文为主,搜索关键词同时使用中英文。对于中国特色较强的方向(如中文信息处理),以中文搜索为主。

子领域识别

在梳理 venue 的过程中,同时识别该领域的子领域划分(8-15 个)。交叉验证规则:

  • ≥2 个渠道提及 = 主流子领域
  • 仅 1 个渠道 = 新兴/小众子领域

每个子领域整理为:编号、子领域名称、一句话描述、核心研究问题 子领域总数预期 8-15 个;若超过 15 个,合并高度相关的子领域

输出格式

将梳理结果整理为结构化子领域列表:

子领域 N: {子领域名称}({英文名})
- 核心研究问题:{描述}
- 核心 Venue:
  | Venue 名称 | 类型 | 等级 | h5-index | 说明 |
  |------------|------|------|----------|------|
  | {name}     | 会议/期刊 | CCF-A/CORE-A* | {h5} | {一句话描述} |
- 信息源:{哪些渠道提及}
- 分类:主流子领域 / 新兴子领域

聚焦方向处理:如果用户指定了 {focus},仍然输出完整子领域列表,但仅标记 {focus} 对应的子领域进入 Phase 2 深入采集。未指定则所有子领域均进入 Phase 2。


Phase 2: 并行论文采集(N 个 Subagent)

关键要求: 所有子领域的 Agent 必须放在同一条消息中发出,确保并行执行。

每个 Agent 使用 subagent_type: "general-purpose"

每个子领域派出 1 个子代理,按以下 4 个渠道(优先级递减)采集重要论文:

优先级 渠道 采集目标 搜索策略
1(核心) Best Paper 各 venue 的最佳论文奖 "{venue_name}" best paper award list
2(重要) 高被引经典 被引 top 论文、里程碑论文 "{sub_field}" most cited papers / "{sub_field}" seminal papers
3(补充) Survey 引用 权威综述中高频引用的论文 "{sub_field}" survey review → 从 reference 提取
4(验证) 社区推荐 awesome 列表、学术社区推荐 "{sub_field}" must read papers / "{sub_field}" 必读论文

语言策略:学术论文以英文为主,搜索关键词同时使用中英文。对于中国特色较强的方向(如中文信息处理),以中文搜索为主。


子代理 Prompt 模板

每个子领域的子代理使用以下完整 prompt:

description: "采集{field}·{sub_field_name}方向重要论文"

prompt 模板:

你是学术论文调研专家。请为「{field}」领域的「{sub_field_name}」方向采集重要论文。

子领域编号:{sub_field_number}
子领域描述:{sub_field_description}
核心 Venue 列表:{venue_list}(来自 Phase 1)

任务:按以下 4 个渠道依次采集,至少执行 3 次 WebSearch + 1 次 WebFetch:

**渠道 1 — Best Paper(核心)**
搜索关键词:
- "{venue_name}" best paper award list
- "{sub_field_name}" best paper history
目标:找到各核心 venue 的最佳论文奖获奖论文。

**渠道 2 — 高被引经典(重要)**
搜索关键词:
- "{sub_field_name}" most cited papers
- "{sub_field_name}" seminal influential papers
目标:找到被引量最高的里程碑论文。

**渠道 3 — Survey 引用(补充)**
搜索关键词:
- "{sub_field_name}" survey review paper
目标:找到权威综述,从其 reference 中提取高频引用的论文。

**渠道 4 — 社区推荐(验证)**
搜索关键词:
- "{sub_field_name}" must read papers
- "{sub_field_name}" 必读论文 推荐
目标:通过社区推荐验证论文重要性,补充遗漏。

使用 WebFetch 访问至少 1 个搜索结果页面,验证论文信息的准确性。

输出格式(严格遵守):

**{sub_field_number}. {sub_field_name} 重要论文**

| # | 标题 | 作者 | 年份 | Venue | 被引 | 脉络位置 | 承接关系 | 贡献描述 | TOP |
|---|------|------|------|-------|------|---------|---------|---------|-----|
| 1 | {标题} | {作者} | {年份} | {venue} | {被引} | {奠基/突破/改进/集大成/新范式} | {← 论文X / → 论文Y} | {一句话贡献} | [TOP] 或空 |

**来源链接:**
- [{来源标题}]({url})
- ...

输出要求:
- 8-15 篇论文,按重要性排序:奠基之作 > 突破性论文 > 高被引经典 > 近年重要工作
- 标记 1-2 篇最重要的论文为 [TOP](将进入自动深度分析)
- 总输出控制在 2500 字符以内
- 全部使用中文输出
- 来源链接必须为实际访问过的 URL,不得使用占位符
- 如某渠道无结果,注明"该渠道未找到相关论文"并跳过

子代理约束

  • 每个子代理输出 8-15 篇论文
  • 输出字符上限 2500 字符
  • 全部使用中文输出
  • 必须标注来源 URL
  • 排序:奠基之作 > 突破性论文 > 高被引经典 > 近年重要工作
  • Top 标记:1-2 篇 [TOP]

Phase 3: 整合与输出(主线程)

等待所有子代理返回后,在主线程中完成以下步骤。

Step 1: 数据聚合

  • 跨子领域去重:同一论文在多个子领域出现 → 标记为"跨领域经典",在核心结论中特别提及
  • 一致性检查:验证论文信息(venue、年份、被引量)的一致性,同一论文保留在最相关的子领域,其他子领域以"见 XX 子领域"引用
  • 来源完整性:检查所有子领域的来源 URL 是否完整,缺失的标注"来源待补充"
  • 子代理失败处理:未返回结果的子领域标记为"数据不足,建议手动补充"
  • 统计汇总:计算总论文数、跨领域经典数、Top 论文数,用于核心结论和终端摘要

Step 2: 三视角组织

视角 1 — 子领域分类:按子领域分组展示论文列表(与子目录结构对应)

视角 2 — 时间线:按年代分段展示,分段根据领域发展节奏自动调整(如 ~2000 / 2001-2010 / 2011-2017 / 2018-present),标注每个时段的代表性论文和关键转折

视角 3 — 发展脉络:以技术演进路线图形式呈现论文之间的承接关系:

问题定义 → 经典方法 → 深度学习突破 → 预训练范式 → 当前前沿
[论文A]     [论文B,C]   [论文D]          [论文E,F]     [论文G]

Step 3: 生成主文档

文件名:{field_en}-papers-survey-{date}.md,保存在当前工作目录。

使用 Write 工具写入以下 Markdown 内容:

# {field} 核心会议/期刊与重要论文全景

> 调研日期:{date}
> 文档目标:梳理{field}领域的核心 venue 和重要论文,提供子领域分类、时间线、发展脉络三种视角

## 核心结论

{基于四渠道调研得出的 3-5 条核心发现,包括:子领域数量、总论文数、跨领域经典论文数量、最具影响力的 venue、领域发展的关键转折点、推荐入门阅读路径}

## 会议/期刊全景

| Venue | 类型 | 等级 | h5-index | 主要覆盖子领域 | 说明 |
|-------|------|------|----------|---------------|------|
| {name} | 会议/期刊 | CCF-A | {h5} | {子领域} | {说明} |
| ... | ... | ... | ... | ... | ... |

## 发展脉络总览

{技术演进路线图,展示关键论文之间的承接关系,按阶段组织}

## 时间线

### {时段1}: {时段主题}
{该时段的代表性论文和关键事件}

### {时段2}: {时段主题}
...

## {编号}. {子领域名称}({英文名})

**核心研究问题**:{该子领域的核心研究问题描述}

**核心 Venue**:{该子领域的主要会议/期刊列表}

### 重要论文

| # | 标题 | 作者 | 年份 | Venue | 被引 | 脉络位置 | 承接关系 | 贡献描述 | 状态 |
|---|------|------|------|-------|------|---------|---------|---------|------|
| 1 | {标题} | {作者} | {年份} | {venue} | {被引} | {脉络位置} | {承接关系} | {贡献} | 待分析/已分析 |
| ... | ... | ... | ... | ... | ... | ... | ... | ... | ... |

{对每个子领域重复上述区块}

## 参考来源

**学术组织:**
- [{来源标题}]({url})

**学术索引:**
- [{来源标题}]({url})

**社区共识:**
- [{来源标题}]({url})

**引用网络:**
- [{来源标题}]({url})

**各子领域论文采集:**
- {子领域1}: [{来源标题}]({url}), ...
- {子领域2}: [{来源标题}]({url}), ...
- ...

## 下一步

本文档为领域论文全景调研结果,每个子领域的论文已整理在对应子目录中。如需对某篇论文进行深度分析,可使用 `/analyze-paper` 技能:

1. 进入感兴趣的子领域子目录
2. 查看该子领域的 README.md 了解论文列表
3. 对目标论文执行 `/analyze-paper {论文标题或URL}` 生成深度分析

建议优先从"核心结论"中推荐的入门路径开始,逐步扩展到其他子领域。

Markdown 填写规则:

  • 将模板中的占位符替换为实际数据
  • 核心结论基于四渠道交叉验证结果撰写,必须具体可操作
  • 跨领域经典论文在首次出现的子领域中详细列出,其他子领域注明"见 XX 子领域"
  • 「参考来源」区块必填:将 Phase 1 和 Phase 2 的所有来源链接按类别分组填入;不得省略、不得使用占位符 URL

Step 4: 创建子目录骨架

使用 Bash 工具创建目录结构。

命名规则01-{sub_field_en}/, 02-{sub_field_en}/, ...

{sub_field_en} 使用 Phase 1 识别的英文名,小写连字符分隔(如 object-detectionnatural-language-processing)。

示例(计算机视觉):01-image-classification/, 02-object-detection/, 03-semantic-segmentation/, ...

每个子目录中创建 README.md,使用 Write 工具写入以下内容:

# {子领域名称}({英文名})

> 所属领域:{field}
> 调研日期:{date}

## 子领域简介

{核心研究问题、代表性 venue}

## 重要论文

| # | 标题 | 作者 | 年份 | Venue | 被引 | 脉络位置 | 承接关系 | 贡献描述 | 状态 |
|---|------|------|------|-------|------|---------|---------|---------|------|
| 1 | {标题} | {作者} | {年份} | {venue} | {被引} | {脉络位置} | {承接关系} | {贡献} | 待分析 |
| ... | ... | ... | ... | ... | ... | ... | ... | ... | 待分析 |

## 深度分析

如需对某篇论文进行深度分析,可使用:
- `/analyze-paper {论文标题或URL}` — 生成七维度完整深度分析

Step 5: 终端输出进度信息,然后立即继续

在终端打印以下进度信息:

📋 Phase 1-3 完成:{field} 论文全景调研已生成

📄 主文档:{field_en}-papers-survey-{date}.md
📁 子目录:{N} 个子领域目录已创建
📚 论文总计:{总论文数} 篇(跨领域经典 {N} 篇)
🏆 Top 论文:{M} 篇待深度分析

目录结构:
  {列出所有子目录名称}

⚠️ 注意:打印以上进度信息后,任务尚未完成。

  • 如果 {skip_analysis} 为 true:打印 "ℹ️ 已跳过论文深度分析(用户指定仅列表)",然后结束。
  • 否则:立即开始执行 Phase 4,不得停止。

Phase 4: 自动论文轻量分析(默认执行)

仅当用户明确说"仅列表"/"不分析"/"跳过分析"/"只要论文列表"时才跳过此阶段。 默认情况下,Phase 3 完成后自动进入 Phase 4。

/analyze-paper 的区别:Phase 4 是轻量分析——每篇论文由 1 个 Agent 串行完成 7 维度(而非 /analyze-paper 的 7 个并行 Agent + 论文原文提取 + 断言校验)。输出质量适合快速了解,如需完整深度分析(含 paper_locator_map、断言-证据清单、Phase 3.5 校验),用户应对目标论文单独执行 /analyze-paper

总量上限

Phase 4 最多分析 10 篇论文。如果所有子领域的 TOP 论文总数超过 10 篇,按子领域顺序优先处理,超出部分保持"待分析"状态。

执行策略

按子领域逐个处理(避免同时启动过多子代理),每个子领域内的 Top 论文并行分析:

子领域1: Top论文A ──┐
         Top论文B ──┼── 并行 → 全部完成 → 子领域2: Top论文C ──┐
                    ┘                              Top论文D ──┼── 并行 → ...

如果用户指定了聚焦方向 {focus},则仅对该子领域执行 Phase 4。

对每个子领域的处理

对子领域 M 中的所有 Top 论文(假设有 K 篇),在同一条消息中发出 K 个 Agent 调用:

每个 Agent 使用 subagent_type: "general-purpose"

description: "轻量分析论文《{paper_title}》"

prompt 模板:

你是论文深度分析专家。请对论文《{paper_title}》({authors}, {year}, {venue})进行七维度轻量深度分析。

所属领域:{field}
所属子领域:{sub_field_name}
工作目录:{sub_field_directory}(分析结果保存到此目录)

## 任务

按照以下七个维度分析。对每个维度,执行至少 1 次 WebSearch + 1 次 WebFetch 验证:

### 维度 1: 背景与动机
搜索:"{paper_title} motivation background" / "{paper_title} 研究背景"
整理:研究领域现状 + 核心问题与动机

### 维度 2: 团队与作者背景
搜索:"{first_author} site:scholar.google.com OR site:dblp.org" / "{corresponding_author} homepage"
整理:核心作者介绍 + 研究脉络
约束:仅写作者主页/Scholar/DBLP 可验证的信息,无法验证的不写

### 维度 3: 技术方法与创新点
搜索:"{paper_title} method explained" / "{paper_title} 方法解析"
整理:核心方法 + 2-3 个创新点(标注与前人工作的区别)

### 维度 4: 实验与结果评估
搜索:"{paper_title} results benchmark comparison"
整理:实验设计(数据集/基线/指标)+ 关键结果 + 消融实验

### 维度 5: 优缺点与局限性
搜索:"{paper_title} limitations criticism" / "{paper_title} review openreview"
整理:优点 + 局限性(区分作者自述和外部评价)+ 改进方向

### 维度 6: 社区反馈与影响力
搜索:"{paper_title} site:scholar.google.com" / "{paper_title} github implementation"
整理:引用量(标注来源+抓取日期)+ 社区评价 + 开源实现

### 维度 7: 术语表与延伸阅读
搜索:"{paper_title} related papers survey"
整理:10-15 个关键术语 + 前置阅读 2-3 篇 + 后续工作 3-4 篇

## 来源规则

- 论文原文是唯一事实权威,关键数字必须标注具体 Section/Table/Figure
- 外部来源标注层级:L1(论文/作者主页)> L2(Scholar/DBLP)> L3(博客/社区)> L4(新闻稿,不得支撑事实)
- 段内引用,禁止末尾堆链接
- 无法验证的不写

## 输出

使用 Write 工具将分析结果保存为 Markdown 文件:

文件路径:./{sub_field_directory}/{paper_name_en}-paper-analysis-{date}.md

文件名规则:{paper_name_en} 使用论文标题的英文简写形式(小写连字符),如:
- Attention Is All You Need → attention-is-all-you-need
- ResNet: Deep Residual Learning → resnet
- BERT → bert

Markdown 格式:

# 《{paper_title}》论文轻量分析

> **作者**: {authors} | **发表**: {venue} {year} | **分析日期**: {date}
> ⚠️ 本分析为轻量版。如需完整深度分析(含论文原文定位、断言校验),请执行 `/analyze-paper {paper_title}`

## 核心结论
{3-5 句总结}

## 一、背景与动机
{研究领域现状 + 核心问题与动机}

## 二、团队与作者背景
{核心作者介绍 + 研究脉络}

## 三、技术方法与创新点
{核心方法 + 创新点}

## 四、实验与结果评估
{实验设计 + 关键结果}

## 五、优缺点与局限性
{优点 + 局限性 + 改进方向}

## 六、社区反馈与影响力
{引用量 + 社区评价 + 开源实现}

## 七、术语表与延伸阅读
{关键术语 + 前置阅读 + 后续工作}

## 参考来源
{按维度分组的来源链接}

全部使用中文输出。来源链接必须为实际访问过的 URL。

完成后更新 README.md

每篇论文分析完成后,更新该子领域子目录的 README.md,将对应论文的"状态"列从"待分析"改为"已分析"。

终端输出

每完成一个子领域的所有 Top 论文分析后,打印进度:

📖 子领域 {M}/{总子领域数} [{sub_field_name}] 完成:{K} 篇论文已分析

全部完成后打印:

✅ 全部 Top 论文轻量分析完成

📊 统计:{总子领域数} 个子领域,{总论文数} 篇论文已分析
📁 分析结果已保存到各子领域子目录

💡 如需完整深度分析(含论文原文定位、断言-证据清单),可对目标论文执行:
   /paper-analysis {论文标题或URL}

Error Handling

  • 领域无法识别:提示用户确认领域名称,并给出常见领域建议列表(计算机视觉、NLP、推荐系统、信息检索、数据库、操作系统、计算机网络、人工智能、机器学习、软件工程等)
  • 子代理失败(Phase 2):在主文档中该子领域标记为"数据不足,建议手动补充",不影响其他子领域的输出
  • 论文分析子代理失败(Phase 4):该论文在 README.md 中保持"待分析"状态,打印失败提示,继续分析其他论文
  • 子领域过多(>15 个):默认全部并行派出子代理;如遇平台并发限制,分两轮执行(优先主流子领域,再执行新兴子领域)
  • 聚焦方向不在分类结果中:提示用户确认方向名称,展示已识别的子领域列表供选择
  • Venue 分级信息冲突:不同渠道对 venue 等级有差异时,保留多种分级方案(CCF/CORE/JCR),在文档中注明差异及各自来源
  • Phase 1 未找到相关 Venue:领域过于小众或新兴时,降级为直接搜索该领域的高被引论文(跳过 venue 全景),在文档中注明"领域尚无公认的核心 venue 体系"

Notes

  • 子代理输出字符上限(2500 字符)防止主线程上下文溢出
  • Phase 3 重点是 交叉验证和三视角整合,不是简单拼接各子代理输出
  • 全部输出使用中文
  • 来源 URL 必须为实际访问过的链接,不得使用占位符
  • Phase 4 仅分析 Top 1-2 篇(非全部),且总量上限 10 篇,是与 field-survey 的关键差异
  • Phase 4 每个 Agent 串行完成 7 维度分析(非嵌套 7 个子代理),避免子代理嵌套复杂度
  • Phase 4 输出为轻量分析版,不含 paper_locator_map 和断言校验;用户可对重要论文另行执行 /analyze-paper 获得完整版
  • Phase 1 的四渠道不是每个领域都有完整的四个维度——例如纯理论领域可能缺少"社区共识"维度,此时在文档中注明并跳过
  • 子目录 README.md 中的"状态"列初始值全部为"待分析",Top 论文分析完成后更新为"已分析"
  • 如果用户指定了聚焦方向,仍创建所有子领域的子目录,但仅聚焦子领域的 README.md 包含完整论文列表,其他子领域 README.md 仅包含子领域简介和提示"如需论文列表,请重新执行调研或手动补充"
  • Phase 4 按子领域逐个处理是为了控制并发量;如领域子领域较少(≤5),可考虑所有子领域同时并行
Weekly Installs
8
Repository
jssfy/k-skills
GitHub Stars
2
First Seen
Mar 20, 2026