路线图
📍 这是一个滚动更新的清单。欢迎在底部评论区认领或提名新条目。
DeepSeek 专题(v0.1)
Section titled “DeepSeek 专题(v0.1)”概念词典首批 ✅
Section titled “概念词典首批 ✅”- MoE (Mixture of Experts)
- MLA (Multi-head Latent Attention)
- MTP (Multi-Token Prediction)
- FP8 训练 (mixed precision training)
- GRPO (Group Relative Policy Optimization)
DeepSeek 专题(v0.2)
Section titled “DeepSeek 专题(v0.2)”- DeepSeek-R1 推理强化训练(GRPO 实战 + reward 设计)
- MoE 系列演进(V1 → V2 → V3 → V4 路由策略对比)
- FP8 训练工程实践(与 V3 tech report 对照)
概念词典 v0.2
Section titled “概念词典 v0.2”- SWA / CSA / HCA — V4 三种注意力组件
- OPD — Open-Process Distillation
- Speculative Decoding
- DPO / KTO 偏好优化族
下一个专题候选(投票中)
Section titled “下一个专题候选(投票中)”- 🤖 Qwen 系列:Qwen2.5、QwQ、Qwen-VL
- 🦙 Llama 4 / Mistral:开源旗舰对比
- 🧠 GPT-5 / Claude 4 / Gemini 2.5:闭源旗舰公开资料整理
- 🎯 Test-Time Scaling:o1 / R1 / s1 系列方法学综述
💬 想投票? 去 GitHub Discussions 给你想看的专题点 👍。
- 全站搜索升级(Algolia DocSearch)
- 论文 PDF 在线标注(hypothes.is 集成)
- 共读直播回放区
- 中英双语自动同步检查
历史更新日志
Section titled “历史更新日志”| 日期 | 版本 | 内容 |
|---|---|---|
| 2026-05-06 | v0.1.1 | 接入 Mermaid;首批 5 条概念词典(MoE/MLA/MTP/FP8/GRPO)上线 |
| 2026-05-06 | v0.1 | 站点首发,迁入 DeepSeek 三篇深度文章 |
想加入维护组?请在 Discussions 留言介绍你想认领的板块。