Attention Is All You Need¶
一句话总结¶
这篇论文提出了 Transformer,用纯注意力机制替代 RNN/CNN,显著提升了序列建模的并行性与性能。
研究问题¶
传统序列模型(RNN、LSTM)难以并行,而且建模长距离依赖时效率较低。作者希望找到一种更高效的序列到序列建模方式。
核心方法¶
Transformer 的核心由以下模块组成:
- Multi-Head Self-Attention
- Position-wise Feed-Forward Network
- Residual Connection + LayerNorm
- Positional Encoding
注意力计算的核心公式:
\[
\mathrm{Attention}(Q, K, V) = \mathrm{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V
\]
关键创新点¶
- 用 self-attention 替代循环结构
- 多头注意力让模型从不同子空间捕获关系
- 编码器/解码器结构具有极强的并行性
实验结果¶
在机器翻译任务上,Transformer 达到了当时非常强的结果,同时训练速度明显快于循环模型。
优点¶
- 并行友好
- 长程依赖建模更直接
- 架构清晰,易扩展
局限¶
- 位置编码不是天然内生的
- 注意力复杂度随序列长度平方增长
我的理解 / 启发¶
这篇论文最重要的意义不只是“效果更好”,而是把序列建模的主干从“递归”切换成了“基于关系的全局交互”,从而开启了后续大语言模型的主流范式。