大佬们,有没有一些推荐看的transformer的最近相关论文和平时在哪里看最新的,刚刚开始学习?
2024-04-10 阅读 87
刚开始学 transformer,先读几篇里程碑论文:2017 年《Attention Is All You Need》(理解自注意力与位置编码)、BERT(2018)、GPT 系列(如 GPT-2/3)、Transformer-XL/Longformer/Reformer(长序列处理)、T5(统一文本生成框架)、ViT/Swin(视觉 Transformer)。平时看最新论文用 arXiv(订阅关键词)、Papers with Code、arXiv-sanity、Semantic Scholar、ACL Anthology,关注 NeurIPS/ICLR/ICML/ACL/CVPR 等会议的论文集。实操可看 Hugging Face 文档和 GitHub 实现,入门辅导文章推荐 The Illustrated Transformer 和“A Primer in BERTology”。
更新于 2026年01月03日