跳转到内容

路线图

📍 这是一个滚动更新的清单。欢迎在底部评论区认领或提名新条目。

  • MoE (Mixture of Experts)
  • MLA (Multi-head Latent Attention)
  • MTP (Multi-Token Prediction)
  • FP8 训练 (mixed precision training)
  • GRPO (Group Relative Policy Optimization)
  • DeepSeek-R1 推理强化训练(GRPO 实战 + reward 设计)
  • MoE 系列演进(V1 → V2 → V3 → V4 路由策略对比)
  • FP8 训练工程实践(与 V3 tech report 对照)
  • SWA / CSA / HCA — V4 三种注意力组件
  • OPD — Open-Process Distillation
  • Speculative Decoding
  • DPO / KTO 偏好优化族
  • 🤖 Qwen 系列:Qwen2.5、QwQ、Qwen-VL
  • 🦙 Llama 4 / Mistral:开源旗舰对比
  • 🧠 GPT-5 / Claude 4 / Gemini 2.5:闭源旗舰公开资料整理
  • 🎯 Test-Time Scaling:o1 / R1 / s1 系列方法学综述

💬 想投票?GitHub Discussions 给你想看的专题点 👍。

  • 全站搜索升级(Algolia DocSearch)
  • 论文 PDF 在线标注(hypothes.is 集成)
  • 共读直播回放区
  • 中英双语自动同步检查
日期版本内容
2026-05-06v0.1.1接入 Mermaid;首批 5 条概念词典(MoE/MLA/MTP/FP8/GRPO)上线
2026-05-06v0.1站点首发,迁入 DeepSeek 三篇深度文章

想加入维护组?请在 Discussions 留言介绍你想认领的板块。