Paper Reading — 学术论文阅读法
本质 论文不是书,结构化更强(abstract / intro / method / results / discussion 五段式),信息密度更高(无 padding,每句都重要),但写作目标是 peer review 通过(不是 educator 教你)——所以充满 hedging / jargon / 引文。死磕一篇当小说读 = 4 小时还没读懂;用 Keshav 三遍法 + Andrew Ng 30/60 分钟 + 主题阅读跨论文 = 30 分钟知道是不是值得深看,2 小时拆透,4 小时把 5-10 篇相关论文综合成自己的笔记网。
学习目标
读完本页后,你应该能够:
- 用 Keshav 三遍法 30 min 判定"读 / 跳"
- 5 步拆任意 paper:abstract → fig 1 → conclusion → 反推 method → 重读 intro
- 区分"应该精读"vs"应该跳"的 6 个判据
- 把 1 篇 paper 的输出归到 5 类 Zettelkasten 卡片(thesis / method / result / connection / question)
- 主题阅读 5-10 篇相关 paper 时构建 comparison matrix
- 识别学术 paper 写作的 3 种 hedging 模式,不被 weasel word 绕
1. Keshav 三遍法 — 30 min 决定读 / 跳
Keshav《How to Read a Paper》给出最 famous 的三遍法。每遍目标完全不同。
1.1 第一遍 — 5-10 分钟,判定 "Read or Skip"
只读:
- Title / Abstract / Introduction
- Section headings(粗略浏览)
- Conclusions
- References(扫一眼,看引了哪些经典 + 是否在你已知 community)
输出回答 5 个问题(Keshav 5C):
- Category: 这是什么类型的 paper?(measurement / new technique / survey / theoretical analysis)
- Context: 引了哪些已有工作?
- Correctness: 假设看起来 valid 吗?
- Contributions: 主要贡献是什么?
- Clarity: 写得清楚吗?
如果 5C 中任一答案是 "no" / "weak",跳过这篇。重要:跳过不是失败,判断哪些 80% 的 paper 不读才能省下时间精读 20%。
1.2 第二遍 — 30-60 分钟,grasp 内容但不证明
通读:
- 看 figures / diagrams / 表(可以理解就深入)
- 标记 unclear references(以后顺藤摸瓜读 prior work)
- 跳过 proofs / 复杂数学推导(留第三遍)
输出:
- 能 5-6 句话向同行解释这篇 paper 做了什么 / 与前作差异 / 限制
如果第二遍后仍想深入,进第三遍。否则到此为止存档(Zettelkasten 第二遍卡片 = 1 张 thesis 卡)。
1.3 第三遍 — 4-5 小时,实质性深度
目标:能虚拟"重做"这篇 paper。
流程:
- 把 paper 当自己写的:每个假设 / 步骤都问"换我会怎么做"
- 列出未明确的假设(authors 默认 reader 知道但你不知道的)
- 找论证漏洞(implicit assumptions / weak baselines / 选择性比较)
- 找potential future work(他们没做但顺理成章下一步)
输出:
- 完整的 Zettelkasten 卡片网络(method / result / connection / question 多张)
- 自己的 reproducible 复现 pseudocode(deep tech 类)
- 反驳要点 list(critical 类)
2. 5 步速拆任意 paper(我的精炼版)
Keshav 三遍法太 academic。工业上更快的 5 步:
Step 1: Abstract(2 min)
读 abstract,问 5 个 W:
- What: 做了什么(1-2 句)
- Why: 为什么重要(1 句)
- How: 用什么方法(1-2 句)
- What's new: 跟 prior work 区别(1 句)
- What if true: 如果结论对,影响什么(1 句,自己推)
如果 abstract 5 W 没答清楚,或答案不引人,80% 概率跳过。
Step 2: Figure 1(2 min)
ML / 系统类 paper 必有 architecture / pipeline figure。Figure 1 是整篇 paper 的 visual summary——好作者把核心 insight 都画在这。看不懂 Figure 1 = 论文核心你也不会懂。
回到 abstract 重读;还不懂 → 跳过或留待精读。
Step 3: Conclusion(3 min)
Conclusion 重述了 contribution + 报告 result。比 abstract 多了:
- 量化 result(数字 / 提升幅度 / 对比 baseline)
- Limitation 自我承认(诚信 paper 标志)
- Future work(可能你能接的 thread)
如果 abstract 说"我们做了 X" + conclusion 也说"我们做了 X",中间没新信息,作者是 padding paper 凑长度。
Step 4: 反推 Methods(15-30 min)
只有决定"值得深看"才进这步。先知道答案(Result),再倒推方法(Method):
- 看 main result 表 / 图(超过 baseline 多少?)
- 反推:为什么这个 method 能拿到这个 result?
- 再去 method section 验证猜测
这样读比"按顺序读"快 3 倍 + 理解更深(因为带着问题读)。
Step 5: 重读 Intro(10 min)
读完 method 再回去看 intro 通常发现:
- 第一段(motivation)其实在为 conclusion 铺路
- 中间段(prior work)的对手列表正是 result table 里 baseline
- 最后一段(contributions)= conclusion 缩写
读 paper 永远逆向:Result → Method → Intro → Reference,而非线性顺序。
3. 6 个判据 — "应该精读" vs "应该跳"
判定 80/20:80% paper 不该精读。
| 信号 | 应精读 | 应跳过 |
|---|---|---|
| 作者权威 | 顶尖 lab(DeepMind / FAIR / 张益唐这种)+ 已成名人 | 第一作者从未发表 + lab 不熟 |
| 场地 | NeurIPS / ICML / SIGCOMM / Nature / IEEE Trans 主刊 | arxiv-only / 杂期刊 / workshop poster |
| 引用 | Google Scholar 50+ + 引用增速持续 | < 5 引用 / 1 年 |
| 复现性 | 有 code repo + dataset link + 易跑 | 无 code,只描述 |
| 跟你 work 关系 | 直接相关你正在做的项目 | 偶然兴趣 |
| 第一遍 5C 评分 | 全 yes | 任 1 项 weak |
加权:作者 + 场地 + 复现性是最强信号。Citation 是 lagging indicator(新 paper 来不及攒)。
4. 输出 5 类 Zettelkasten 卡
读 paper 不输出 = 半小时后忘 90%。每篇 paper 读完产出至少 1 张,最多 5 张卡:
4.1 Thesis 卡(必有,1 张)
Title: [paper title 简化]
Author + Year: ...
URL / DOI: ...
Thesis: [一句话核心论点]
Why important: [它解决什么问题]
What's new: [跟前作差别]
Tags: #thesis #<topic>
4.2 Method 卡(精读时,1 张)
Method: [核心算法 / 框架名]
From paper: [link to thesis card]
Key idea: [一段简化讲清]
Pseudocode / steps: [3-5 步]
Why it works: [insight]
Compared to: [prior baseline + 怎么改进]
Tags: #method #<technique>
4.3 Result 卡(精读时,可多张)
Result: [量化数字 + 对比 baseline]
From paper: [link]
Setting: [dataset / hardware / metric]
Numbers: [X% improvement on Y]
Surprising / not: [是否反直觉,如果是为什么]
Tags: #result #benchmark
4.4 Connection 卡(主题阅读时)
Connection: [两篇/三篇 paper 之间的关系]
- Paper A: [thesis]
- Paper B: [thesis]
- Relation: [agree / disagree / extend / orthogonal]
Tags: #connection
4.5 Question 卡(任何阶段)
Question: [paper 没回答 / 你没懂 / 想验证]
Context: [from which paper / discussion]
How to verify: [实验设计 / 找哪个 follow-up paper]
Tags: #open-question
5. 主题阅读 — 5-10 篇 paper 综合
读 1 篇 paper 的边际收益第 2 小时之后下降。读 5-10 篇相关 paper 后跨篇综合的边际收益开始上升——这是产生新 insight 的关键。
5.1 主题阅读流程
- Q: 提一个具体 question(不是泛泛主题)
- L: 滚雪球 — 从 1 篇 seed 引文出发,反向 + 正向追(prior work + cited by)
- R: 30 篇用 Keshav 第一遍快筛,留 5-10 篇
- M: 做 comparison matrix(下面)
- S: 综合 — "这 5-10 篇共识是 X,分歧在 Y,缺失的是 Z"
- G: gap analysis — "Z 就是我可以做的"
5.2 Comparison Matrix 模板
5-10 行 × 6-8 列的表格,放在 wiki 里:
| Paper | Year | Setting | Method | Result | Limitation |
|---|---|---|---|---|---|
| Smith 2024 | 24 | imagenet | CNN+attn | 87% top-1 | 慢 |
| Chen 2025 | 25 | imagenet | ViT-large | 89% top-1 | 算力大 |
| You 2026 | 26 | imagenet | mamba SSM | 88% top-1 | inference 快 5× |
| ... |
通过 matrix 立刻看到:
- 共识:都 imagenet
- 分歧:CNN vs ViT vs SSM 路线
- gap:5× faster inference 还没扩到 video / language
6. Hedging 词识别 — 学术 paper 的 weasel words
paper 充满 hedge,因为 reviewer 会挑硬话。识别后在自己复述时改硬,但在引用时保持原 hedge。
| Hedge 词 | 实际意思 | 何时该警觉 |
|---|---|---|
| "may suggest" | 没证明只是 hint | 引用时不可去 may |
| "promising results" | result 不显著 | 看 baseline 对比 |
| "we believe" | 没数据支持 | 当心当 fact 引 |
| "future work" | 这一版没做 | 不要假设作者会做 |
| "to the best of our knowledge" | 没全 search 文献 | 自己再 search |
| "preliminary results" | 数据少不靠谱 | 等 follow-up paper |
| "comparable to state-of-the-art" | 比 SOTA 差一点 | 看具体数字 |
反例(诚实 paper):"Our method achieves 87.3% top-1 on ImageNet, 1.2% above the previous best (Chen 2025) at 0.6× the inference cost."(具体数字,无 hedge)
weak paper:"Our method shows promising results, comparable to state-of-the-art."(全 hedge,无数字 → 跳过 80% 概率)
7. 工具与流水线建议
7.1 找 paper
- arXiv-sanity (karpathy.ai/arxiv-sanity-lite) — 按 popularity / 个人 lib 推荐
- Papers with Code — code link + benchmark
- Google Scholar alerts — 关注作者 / topic 自动 email
- Connected Papers (connectedpapers.com) — 给 1 篇 seed,可视化 prior + cited
- Semantic Scholar — 跨学科 search,influence 分数
7.2 读 paper
- Zotero — 收集 + 管理 + 自动抓元数据 + 备 PDF
- Highlight + 边注 — Zotero 内 PDF reader / Apple Books / Adobe Reader
- Obsidian / wiki — Zettelkasten 输出端
7.3 笔记 → wiki integration
读 paper 第三遍输出 5 类卡片 → 进 wiki / Obsidian:
- 每张卡 frontmatter 加 source: paper title + URL
- tags 至少 1 个 method / result / topic 类
- 反向链:method 卡 link 到 thesis 卡
8. 反模式 — 5 个常见错
| 反模式 | 表现 | 修法 |
|---|---|---|
| 从 abstract 顺序读 | 4 小时读不完 1 篇 | 5 步反向(result → method → intro) |
| 完美主义死磕 | 1 篇不懂坚持读 8 小时 | 第二遍后判定不值得就存档,80/20 |
| 不输出 | 读完没 1 张卡 | 至少 1 张 thesis 卡才算读完 |
| 读 1 篇当宝 | 不做主题阅读 | 5-10 篇 + matrix 才有跨篇 insight |
| 被 hedge 词绕 | "promising" 当 fact 引 | 识别 hedge,只引硬数字 |
核心要点
- Keshav 三遍法:5 min 第一遍 5C 判定 / 30 min 第二遍 grasp / 4-5h 第三遍精拆
- 5 步速拆:Abstract → Figure 1 → Conclusion → 反推 Methods → 重读 Intro,逆向读快 3 倍
- 80% paper 不该精读 — 6 判据(作者 / 场地 / 引用 / 复现 / 与 work 关系 / 5C)
- 每篇 paper 输出至少 1 张 thesis 卡,最多 5 张(thesis / method / result / connection / question)
- 主题阅读 5-10 篇 + comparison matrix 是 insight 增量来源
- 识别 hedge 词 ("promising" / "we believe" / "preliminary"),复述时改硬引用时保留
- 工具链:arXiv-sanity / Connected Papers 找 → Zotero 收 → wiki 输出 5 类卡
- 5 反模式戒除:顺序读 / 死磕 / 不输出 / 单篇 / 被 hedge 绕