Transformer家族之Universal Transformer Rogerspy 2020-05-11 NLP 字数统计: 2.6k字 | 阅读时长≈ 10分 自从 2017 年谷歌提出 Transformer 模型以后,其在多个任务上的表现都超过了前辈 RNN, 但是在某些任务上表现却差强人意,比如复制字符串(输入 abc, 输出 abcabc)。随后谷歌对原始的 Transformer 进行了改进,提出了 Universal Transformer 模型使其具有更强的泛用性,同时该模型也是图灵完备的。 阅读全文 Transformer parallel-recurrent