Simple Word embedding base model 论文解读

文献地址

基线系统需要受到更多关注:基于词向量的简单模型 | ACL 2018论文解读

Simple Word embedding base model

大多数NLP任务的NN模型都不是健壮模型,最主要的原因在于文本带来的离散性。

模型只是拟合数据集上下文共现特征one-hot-embedding的潜在特征,NN模型并没有真正理解语言。

大规模预训练模型,本质是指望通过大量无标注文本学习到更好的one-hot-embedding,使得文本由离散数据转换为连续数据时获得更好的潜在特征。

该论文从embedding出发,证明了大多数任务实际复杂度并不高。

大多数NLP任务(如:分类、情感分析等)都不需要那么复杂的模型,因此在做技术选型时要充分考虑任务复杂度,无脑堆模型是不值得提倡的。