19 lines
390 B
Markdown
19 lines
390 B
Markdown
# 大语言模型
|
|
|
|
这个专题页用于组织与 LLM 相关的论文、知识点和方法梳理。
|
|
|
|
## 可纳入的内容
|
|
|
|
- Transformer 基础
|
|
- 预训练目标
|
|
- 指令微调
|
|
- 对齐训练
|
|
- RAG
|
|
- 推理优化
|
|
- Agent 系统
|
|
|
|
## 当前关联内容
|
|
|
|
- [Attention Is All You Need](../papers/attention-is-all-you-need.md)
|
|
- [Transformer 注意力机制](../notes/transformer-attention.md)
|