Text-to-Text Transfer Transformer, 2020年谷歌提出 作用 所有NLP任务转变成生成类任务 组成 encoder decoder 步骤 训练 完型填空,完成句子语义理解 精调 在各任务上泛化 输入Prefix+句子, 输出结果 prompt工程,找到合适前缀 论文 三种模式 Encoder Decoder模式,自编码 BERT、T5 Decoder能看前边Encoder, Decoder能看前边Decoder,不能看后边Decoder Language model,自回归模型 GPT 每个词只能看前边 最后一个词做softmax分类 Prefix LM 后边的层,一部分看全部信息,一部看前边信息 训练 Mask字 难度小 Replace spans去一段 ERNIE 实验最好 去15%,连续3个 Drop,直接丢掉字 比Mask好一点