一、 Transformer结构
- 分词器(Tokenzier)
- 注意力机制(MHA/GQA/稀疏注意力/Kvcache)
- FFN/残差连接/LN
- 位置编码(RoPE/ALiBi)
- 模型结构类型(encoder/decoder)
- 解码策略(TOP-K/top-p/DPO)
二、 主流大模型
- BERT/GPT/Llama/Qwen/GLM/Baichuian/DeepSeek(发展, + 核心优化点)
三、 预训练
- 预训练任务
- 数据筛选/配比
- 合成数据
四、后训练
- SFT(PEFT方法)
- RLHF/DPO/RLAIF/SimPO等对齐方法
五、Moe
- 结构原理
- 训练思路
六、RAG&Agnet
- RAG流程
- LangChain
- Agent框架(ReAct)
七、部署和加速
- vllm/flsh_attention
- Deepspeed
- 多端部署
八、模型评估
- Benchmark
- 幻觉检测
九、其它结构
- Mamba
- RWKV