### **Abstract** 本文提出了一个新的网络结构--Transformer,仅依赖于注意力机制,避免了复杂的循环神经网络或是卷积神经网络。 在NLP领域中,在机器翻译任务上进行了验证实验,取得了良好表现。