自然语言处理论文阅读笔记

我太菜了,英语还要开着有道翻译读

A Systematic Study of Inner-Attention-Based Sentence Representations in Multilingual Neural Machine Translation

https://www.mitpressjournals.org/doi/full/10.1162/coli_a_00377

探索了一种表示方法,可以产生固定大小的句子代表,被称为“Attention bridge”。这个相当于字然语言处理的一个中间层,这一层提取语句中的语义并且转化为语言无关的意思表示。并证明了下游任务中语句代表不影响翻译性能,并且提升了翻译质量,尤其是长句子翻译。短的语句代表有很多压缩,在不可训练的相似性任务中有益。多余的语句信号对不可训练的任务无益。