Paper Reading — 学术论文阅读

认知工具别名 paper reading · how to read papers · 论文阅读 · 文献阅读 · arxiv · literature review

本质 论文不是书,结构化更强(abstract / intro / method / results / discussion 五段式),信息密度更高(无 padding,每句都重要),但写作目标是 peer review 通过(不是 educator 教你)——所以充满 hedging / jargon / 引文。死磕一篇当小说读 = 4 小时还没读懂;用 Keshav 三遍法 + Andrew Ng 30/60 分钟 + 主题阅读跨论文 = 30 分钟知道是不是值得深看,2 小时拆透,4 小时把 5-10 篇相关论文综合成自己的笔记网。

学习目标

读完本页后,你应该能够:

  • 用 Keshav 三遍法 30 min 判定"读 / 跳"
  • 5 步拆任意 paper:abstract → fig 1 → conclusion → 反推 method → 重读 intro
  • 区分"应该精读"vs"应该跳"的 6 个判据
  • 把 1 篇 paper 的输出归到 5 类 Zettelkasten 卡片(thesis / method / result / connection / question)
  • 主题阅读 5-10 篇相关 paper 时构建 comparison matrix
  • 识别学术 paper 写作的 3 种 hedging 模式,不被 weasel word 绕

1. Keshav 三遍法 — 30 min 决定读 / 跳

Keshav《How to Read a Paper》给出最 famous 的三遍法。每遍目标完全不同。

1.1 第一遍 — 5-10 分钟,判定 "Read or Skip"

只读:

  • Title / Abstract / Introduction
  • Section headings(粗略浏览)
  • Conclusions
  • References(扫一眼,看引了哪些经典 + 是否在你已知 community)

输出回答 5 个问题(Keshav 5C):

  1. Category: 这是什么类型的 paper?(measurement / new technique / survey / theoretical analysis)
  2. Context: 引了哪些已有工作?
  3. Correctness: 假设看起来 valid 吗?
  4. Contributions: 主要贡献是什么?
  5. Clarity: 写得清楚吗?

如果 5C 中任一答案是 "no" / "weak",跳过这篇。重要:跳过不是失败,判断哪些 80% 的 paper 不读才能省下时间精读 20%

1.2 第二遍 — 30-60 分钟,grasp 内容但不证明

通读:

  • 看 figures / diagrams / 表(可以理解就深入)
  • 标记 unclear references(以后顺藤摸瓜读 prior work)
  • 跳过 proofs / 复杂数学推导(留第三遍)

输出:

  • 能 5-6 句话向同行解释这篇 paper 做了什么 / 与前作差异 / 限制

如果第二遍后仍想深入,进第三遍。否则到此为止存档(Zettelkasten 第二遍卡片 = 1 张 thesis 卡)。

1.3 第三遍 — 4-5 小时,实质性深度

目标:能虚拟"重做"这篇 paper。

流程:

  1. 把 paper 当自己写的:每个假设 / 步骤都问"换我会怎么做"
  2. 列出未明确的假设(authors 默认 reader 知道但你不知道的)
  3. 论证漏洞(implicit assumptions / weak baselines / 选择性比较)
  4. potential future work(他们没做但顺理成章下一步)

输出:

  • 完整的 Zettelkasten 卡片网络(method / result / connection / question 多张)
  • 自己的 reproducible 复现 pseudocode(deep tech 类)
  • 反驳要点 list(critical 类)

2. 5 步速拆任意 paper(我的精炼版)

Keshav 三遍法太 academic。工业上更快的 5 步:

Step 1: Abstract(2 min)

读 abstract,问 5 个 W:

  • What: 做了什么(1-2 句)
  • Why: 为什么重要(1 句)
  • How: 用什么方法(1-2 句)
  • What's new: 跟 prior work 区别(1 句)
  • What if true: 如果结论对,影响什么(1 句,自己推)

如果 abstract 5 W 没答清楚,或答案不引人,80% 概率跳过

Step 2: Figure 1(2 min)

ML / 系统类 paper 必有 architecture / pipeline figure。Figure 1 是整篇 paper 的 visual summary——好作者把核心 insight 都画在这。看不懂 Figure 1 = 论文核心你也不会懂。

回到 abstract 重读;还不懂 → 跳过或留待精读。

Step 3: Conclusion(3 min)

Conclusion 重述了 contribution + 报告 result。比 abstract 多了:

  • 量化 result(数字 / 提升幅度 / 对比 baseline)
  • Limitation 自我承认(诚信 paper 标志)
  • Future work(可能你能接的 thread)

如果 abstract 说"我们做了 X" + conclusion 也说"我们做了 X",中间没新信息,作者是 padding paper 凑长度

Step 4: 反推 Methods(15-30 min)

只有决定"值得深看"才进这步。先知道答案(Result),再倒推方法(Method):

  • 看 main result 表 / 图(超过 baseline 多少?)
  • 反推:为什么这个 method 能拿到这个 result?
  • 再去 method section 验证猜测

这样读比"按顺序读"快 3 倍 + 理解更深(因为带着问题读)。

Step 5: 重读 Intro(10 min)

读完 method 再回去看 intro 通常发现:

  • 第一段(motivation)其实在为 conclusion 铺路
  • 中间段(prior work)的对手列表正是 result table 里 baseline
  • 最后一段(contributions)= conclusion 缩写

读 paper 永远逆向:Result → Method → Intro → Reference,而非线性顺序。


3. 6 个判据 — "应该精读" vs "应该跳"

判定 80/20:80% paper 不该精读。

信号应精读应跳过
作者权威顶尖 lab(DeepMind / FAIR / 张益唐这种)+ 已成名人第一作者从未发表 + lab 不熟
场地NeurIPS / ICML / SIGCOMM / Nature / IEEE Trans 主刊arxiv-only / 杂期刊 / workshop poster
引用Google Scholar 50+ + 引用增速持续< 5 引用 / 1 年
复现性有 code repo + dataset link + 易跑无 code,只描述
跟你 work 关系直接相关你正在做的项目偶然兴趣
第一遍 5C 评分全 yes任 1 项 weak

加权:作者 + 场地 + 复现性是最强信号。Citation 是 lagging indicator(新 paper 来不及攒)。


4. 输出 5 类 Zettelkasten 卡

读 paper 不输出 = 半小时后忘 90%。每篇 paper 读完产出至少 1 张,最多 5 张卡:

4.1 Thesis 卡(必有,1 张)

Title: [paper title 简化]
Author + Year: ...
URL / DOI: ...

Thesis: [一句话核心论点]
Why important: [它解决什么问题]
What's new: [跟前作差别]

Tags: #thesis #<topic>

4.2 Method 卡(精读时,1 张)

Method: [核心算法 / 框架名]
From paper: [link to thesis card]

Key idea: [一段简化讲清]
Pseudocode / steps: [3-5 步]
Why it works: [insight]
Compared to: [prior baseline + 怎么改进]

Tags: #method #<technique>

4.3 Result 卡(精读时,可多张)

Result: [量化数字 + 对比 baseline]
From paper: [link]

Setting: [dataset / hardware / metric]
Numbers: [X% improvement on Y]
Surprising / not: [是否反直觉,如果是为什么]

Tags: #result #benchmark

4.4 Connection 卡(主题阅读时)

Connection: [两篇/三篇 paper 之间的关系]
- Paper A: [thesis]
- Paper B: [thesis]
- Relation: [agree / disagree / extend / orthogonal]

Tags: #connection

4.5 Question 卡(任何阶段)

Question: [paper 没回答 / 你没懂 / 想验证]
Context: [from which paper / discussion]
How to verify: [实验设计 / 找哪个 follow-up paper]

Tags: #open-question

5. 主题阅读 — 5-10 篇 paper 综合

读 1 篇 paper 的边际收益第 2 小时之后下降。读 5-10 篇相关 paper 后跨篇综合的边际收益开始上升——这是产生新 insight 的关键。

5.1 主题阅读流程

Mermaid diagram
  1. Q: 提一个具体 question(不是泛泛主题)
  2. L: 滚雪球 — 从 1 篇 seed 引文出发,反向 + 正向追(prior work + cited by)
  3. R: 30 篇用 Keshav 第一遍快筛,留 5-10 篇
  4. M: 做 comparison matrix(下面)
  5. S: 综合 — "这 5-10 篇共识是 X,分歧在 Y,缺失的是 Z"
  6. G: gap analysis — "Z 就是我可以做的"

5.2 Comparison Matrix 模板

5-10 行 × 6-8 列的表格,放在 wiki 里:

PaperYearSettingMethodResultLimitation
Smith 202424imagenetCNN+attn87% top-1
Chen 202525imagenetViT-large89% top-1算力
You 202626imagenetmamba SSM88% top-1inference 快 5×
...

通过 matrix 立刻看到:

  • 共识:都 imagenet
  • 分歧:CNN vs ViT vs SSM 路线
  • gap:5× faster inference 还没扩到 video / language

6. Hedging 词识别 — 学术 paper 的 weasel words

paper 充满 hedge,因为 reviewer 会挑硬话。识别后在自己复述时改硬,但在引用时保持原 hedge

Hedge 词实际意思何时该警觉
"may suggest"没证明只是 hint引用时不可去 may
"promising results"result 不显著看 baseline 对比
"we believe"没数据支持当心当 fact 引
"future work"这一版没做不要假设作者会做
"to the best of our knowledge"没全 search 文献自己再 search
"preliminary results"数据少不靠谱等 follow-up paper
"comparable to state-of-the-art"比 SOTA 差一点看具体数字

反例(诚实 paper):"Our method achieves 87.3% top-1 on ImageNet, 1.2% above the previous best (Chen 2025) at 0.6× the inference cost."(具体数字,无 hedge)

weak paper:"Our method shows promising results, comparable to state-of-the-art."(全 hedge,无数字 → 跳过 80% 概率)


7. 工具与流水线建议

7.1 找 paper

  • arXiv-sanity (karpathy.ai/arxiv-sanity-lite) — 按 popularity / 个人 lib 推荐
  • Papers with Code — code link + benchmark
  • Google Scholar alerts — 关注作者 / topic 自动 email
  • Connected Papers (connectedpapers.com) — 给 1 篇 seed,可视化 prior + cited
  • Semantic Scholar — 跨学科 search,influence 分数

7.2 读 paper

  • Zotero — 收集 + 管理 + 自动抓元数据 + 备 PDF
  • Highlight + 边注 — Zotero 内 PDF reader / Apple Books / Adobe Reader
  • Obsidian / wiki — Zettelkasten 输出端

7.3 笔记 → wiki integration

读 paper 第三遍输出 5 类卡片 → 进 wiki / Obsidian:

  • 每张卡 frontmatter 加 source: paper title + URL
  • tags 至少 1 个 method / result / topic 类
  • 反向链:method 卡 link 到 thesis 卡

详见 Note-taking System


8. 反模式 — 5 个常见错

反模式表现修法
从 abstract 顺序读4 小时读不完 1 篇5 步反向(result → method → intro)
完美主义死磕1 篇不懂坚持读 8 小时第二遍后判定不值得就存档,80/20
不输出读完没 1 张卡至少 1 张 thesis 卡才算读完
读 1 篇当宝不做主题阅读5-10 篇 + matrix 才有跨篇 insight
被 hedge 词绕"promising" 当 fact 引识别 hedge,只引硬数字

核心要点

  • Keshav 三遍法:5 min 第一遍 5C 判定 / 30 min 第二遍 grasp / 4-5h 第三遍精拆
  • 5 步速拆:Abstract → Figure 1 → Conclusion → 反推 Methods → 重读 Intro,逆向读快 3 倍
  • 80% paper 不该精读 — 6 判据(作者 / 场地 / 引用 / 复现 / 与 work 关系 / 5C)
  • 每篇 paper 输出至少 1 张 thesis 卡,最多 5 张(thesis / method / result / connection / question)
  • 主题阅读 5-10 篇 + comparison matrix 是 insight 增量来源
  • 识别 hedge 词 ("promising" / "we believe" / "preliminary"),复述时改硬引用时保留
  • 工具链:arXiv-sanity / Connected Papers 找 → Zotero 收 → wiki 输出 5 类卡
  • 5 反模式戒除:顺序读 / 死磕 / 不输出 / 单篇 / 被 hedge 绕

Cross-references