1.6 KiB
1.6 KiB
title, authors, year, venue, tags, status
| title | authors | year | venue | tags | status | |||
|---|---|---|---|---|---|---|---|---|
| Attention Is All You Need | Ashish Vaswani et al. | 2017 | NeurIPS |
|
published |
Attention Is All You Need
一句话总结
这篇论文提出了 Transformer,用纯注意力机制替代 RNN/CNN,显著提升了序列建模的并行性与性能。
研究问题
传统序列模型(RNN、LSTM)难以并行,而且建模长距离依赖时效率较低。作者希望找到一种更高效的序列到序列建模方式。
核心方法
Transformer 的核心由以下模块组成:
- Multi-Head Self-Attention
- Position-wise Feed-Forward Network
- Residual Connection + LayerNorm
- Positional Encoding
注意力计算的核心公式:
\mathrm{Attention}(Q, K, V) = \mathrm{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V
关键创新点
- 用 self-attention 替代循环结构
- 多头注意力让模型从不同子空间捕获关系
- 编码器/解码器结构具有极强的并行性
实验结果
在机器翻译任务上,Transformer 达到了当时非常强的结果,同时训练速度明显快于循环模型。
优点
- 并行友好
- 长程依赖建模更直接
- 架构清晰,易扩展
局限
- 位置编码不是天然内生的
- 注意力复杂度随序列长度平方增长
我的理解 / 启发
这篇论文最重要的意义不只是“效果更好”,而是把序列建模的主干从“递归”切换成了“基于关系的全局交互”,从而开启了后续大语言模型的主流范式。