- Unified Language Model, 2019年微软提出
- 特点
- 只用BERT,没有Decoder
- 集合了L2R-LM, R2L-LM, BI-LM和Seq2Seq-LM的训练方式
- 模型类型
- AE(自编码)+AR(自回归)+Seq2Seq
- 预训练任务
- SLM(标准语言模型)+CTR(受损文本重建)+NSP(下一句预测)
- 步骤
- Left-to-Right
- Bidirectional
- Seq-to-Seq
- 相比BERT,添加的单向LM预训练加强文本表示能力,添加的Seq-to-Seq LM预训练更好胜任文本生成任务