自认为这是一篇有用的文章,因此在发表之前先放到 arXiv 上,供大家参考,请批评指正。
论文地址:http://arxiv.org/abs/1507.05523
实验代码地址:https://github.com/licstar/compare
准备这篇论文大概花了半年时间,从去年 11 月开始做实验,到今年成文。期间消耗大约 10 万 CPU 小时,然后在几十万个结果里面做人肉数据挖掘,最后得到了一些可能有用的结论。
看标题就能够猜到论文的大概内容了,就是希望找到一种简单有效的词向量学习方法。怎么会想到做这件苦逼的事情呢?半年之前在我准备上一篇论文的时候(RCNN,强行广告,欢迎引用,文章点此,上面的常用链接里有文章相关信息)有一个意外的发现:选用不同的词向量作为模型的初始值,效果的差异非常大!!!当时正值我已经调了好几天参数,黔驴技穷之时,没想到手滑用错了个词向量,效果突然变 NB 了。这下我就脑洞大开了,要是能搞出个宇宙第一词向量,岂不是以后可以随便灌水?后面的故事肯定就能猜到了,半年之前我掉进这个坑里,只为寻找这个“宇宙第一”词向量。然后我实现了几个主流的词向量模型,遍历了各种语料和参数,榨干了实验室机器的空闲资源跑词向量,从生成的几十万个词向量里寻找规律,最后发现“宇宙第一”词向量应该是不存在的,不过生成一个好用的词向量还是有一定套路可循的。为避免某些读者对后面冗长的文字没有兴趣,我先用最简单的话描述我们发现的这个套路,那就是:
似乎结论很“显然”,不过这种简单的策略,真的就这么有效吗?word2vec 在半年前已经是最流行的词向量生成工具了,它之所以能这么流行,除了头上顶着 Google 光环,很大程度上是因为这是一个好用的工具包,而不一定是因为它的效果就是最好的。质疑 word2vec 的效果,是因为它的两个模型(Skip-gram 和 CBOW)相对前人的模型做了大量简化,去掉了词序,又去掉了神经网络的隐藏层,最后变成了一个 log 线性模型。我主观地认为,这些简化是会影响词向量的性能的,毕竟词序很有用(上面提到的我的上一篇论文就是讲这个的,再次广告);然后神经网络的表达能力也比 logistic 回归要强得多。这两部分简化到底会带来多少损失,还是要靠数据来说话。所以我考虑的第一个问题就是,什么模型效果好。前面博客提到过的经典模型(NNLM、LBL、C&W)在 word2vec 出现之前,是最主流的方法。这些方法就保留了词序信息,而且也有隐藏层,都放到一起比较。有了这些模型,还缺一个只保留词序,但没有隐藏层的模型。所以我设计了一个中间模型,叫 Order,保留了词序,但没有隐藏层。最后再加上开源的 GloVe,一共比较了 Skip-gram、CBOW、Order、LBL、NNLM、C&W、GloVe 这 7 个模型。
那么最严峻的问题来了,怎么样才算好的词向量呢,应该用什么指标来衡量呢?Mikolov 推广 word2vec 的时候,设计了一个经典的指标(king-queen=man-woman),由于有开放的数据集和评测代码,后来大量的工作都只用这一个指标来评价词向量。我觉得只用这个指标肯定是不对的,为什么词向量非得有这种线性平移的特性啊,如果说这是个加分项,还说得过去,但要成为唯一衡量标准,似乎没什么道理。我觉得 GloVe 那篇论文就做的很好,里面比较了一大堆指标。所以我就从根源想起,我们拿词向量是用来干什么呢?①有人拿它寻找近义词或者相关词,直接根据向量空间里的距离远近来判定词的关系。②也有不少早期的工作,直接拿词向量做特征,在现有系统中加入词向量作为特征。特征嘛,就是要个多样性,虽然不知道词向量包含了什么信息,但是说不定就带着新的信息,效果就能提升了。③还有大量基于神经网络的工作,拿词向量作为神经网络的初始值。神经网络的初始值选得好,就有可能收敛到更好的局部最优解。好,就是这三种指标了:语义特性、用作特征、用作初始值。基于这三大类用法,我们具体找了 8 个指标,进行比较,综合评价词向量的性能。(题外话,其实我从一开始就很想找到一个终极指标,用一个指标定江山,但是自从看到这 8 个指标的结果如此不一致之后,我终于放弃了这个念头。)
为了公平的比较,肯定需要设定一个相同的语料,所有模型都用同样的语料来训练。选个什么语料呢?脑海中的第一反应是:大语料。其实小规模语料(几十兆) Turian 在 2010 年已经做过一些实验了,比较了 C&W 和 HLBL 这两个模型。大规模语料下,结论会不会不一样呢?找了两个大语料,维基百科英文版和纽约时报。此前,主流论点是:语料越大越好。所有语料都堆到一起,不管是什么内容,我语料越大,涵盖的语义信息就越丰富,效果就越好。GloVe 和 C&W 都是这么干的。自然,我也把这两个大语料混合在一起训练了。同时由于好奇心,我还把这两个语料单独拿出来训练词向量。反正就是挂机跑嘛。另一方面,为了验证一下是不是真的语料越大越好,我也在大语料中抽了 10M、100M、1G 词的子集,顺便验证一下别人的结论。说到这里我忍不住剧透了,实验中最意外的结果就是,语料对词向量的影响比模型的影响要重要得多得多得多(重要的事说三遍)。本来我只想固定一个语料,公平比较模型,结果却发现语料比模型重要(抱歉,是四遍)……后来又加了一个小规模的 IMDB 语料,进一步证实了这个结论。实验结果就是这样。
当然,为了公平比较,还有一些其它的因素需要考虑,比如上下文窗口都开成一样大,词向量的维度也需要统一。还有个很重要的参数,那就是迭代次数。这些词向量模型都是用迭代方法优化的,迭代次数肯定会影响性能。对所有模型固定迭代次数可能不合适,毕竟模型之间的差异还是蛮大的。所以为了省事,我们对所有实验迭代足够多的次数,从 100 次到 10000 次,取最好的那次。做了这个决定之后,人省事了,机器累死了,而且对于每个语料、每个模型、每个参数,还要保留不同迭代次数的词向量,很快就把 3T 硬盘塞满了……一边删数据,一边继续做实验……这种暴力手段肯定是不适合实际应用的,所以我们也努力从实验数据中寻找规律,希望找到一种合适的迭代停止条件。
最后总结一下,我们认为模型、语料、参数三方面会影响词向量的训练,所以从这三方面入手分析到底应该怎么生成一个好的词向量,论文由此展开。在博客里主要就介绍一下不方便写进论文里的故事和背景。
—————-枯燥开始的分割线—————-
简单列举一下文章的贡献。
模型方面,因为所有的词向量模型都是基于分布式分布假说的(distributional hypothesis):拥有相似上下文的词,词义相似。这里有两个对象,一个是我们需要关注的词(目标词),另一个是这个词对应的上下文。所以,我们从两个角度去总结模型:1.目标词和上下文的关系,2.上下文怎么表示。在这种分类体系下,我们对现有的主流词向量模型进行了总结和比较,发现,目标词和上下文的关系主要有两种,大多数模型都是根据上下文,预测目标词。而 C&W 模型则是对目标词和上下文这一组合,打分。实验发现,通过上下文预测目标词的模型,得到的词向量,更能捕获替换关系(paradigmatic)。在上下文的表示方面,我们分析了几种表示方法之后,发现可以通过模型复杂程度对这些模型进行排序。排序之后,实验结果就容易解释了:简单的模型(Skip-gram)在小语料下表现好,复杂的模型在大语料下略有优势。从实践中看,word2vec 的 CBOW 模型在 GB 级别的语料下已经足够好。我前面提到的 Order 模型,加入了词序信息,其实很多时候比 CBOW 更好,不过带来的提升并不大。
语料方面,很多论文都提到语料越大越好,我们发现,语料的领域更重要。领域选好了,可能只要 1/10 甚至 1/100 的语料,就能达到一个大规模泛领域语料的效果。有时候语料选的不对,甚至会导致负面效果(比随机词向量效果还差)。文章还做了实验,当只有小规模的领域内语料,而有大规模的领域外语料时,到底是语料越纯越好,还是越大越好。在我们的实验中,是越纯越好。这一部分实验数据比较丰富,原文相对清楚一些。
参数方面,主要考虑了迭代次数和词向量的维度。其实词向量都是迭代算法,一般迭代算法都需要多迭代几次。旧版的 word2vec 只迭代了一次,效果很受限制,换新版就好了(也欢迎用我们论文实验的方法,用 AdaGrad 优化,相比原版 word2vec 的学习速率下降法,这样还能在之前的基础上继续迭代)。然后迭代次数怎么选呢?机器学习里很常用的迭代停止指标是看验证集的损失是否到达峰值,认为这个时候模型开始过拟合了。按照这个方法,我们可以从训练语料中分出一个验证集看损失函数的变化。但是实验中我们发现,这种策略并不好。主要原因就是,训练词向量的目标是,尽可能精确地预测目标词,这一目标和实际任务并不一致。所以更好的方法是,直接拿实际任务的验证集来做终止条件。如果实际任务做起来很慢(比如 NER 任务的开源实现大概做一次要两小时),文章还给了一种参考的方法,随便挑一个任务当验证集用,一般都比损失函数靠谱。
词向量的维度则只有一些实验结果。做词向量语义分析任务的时候,一般维度越大效果越好。做具体 NLP 任务(用作特征、用作神经网络初始化)的时候,50 维之后效果提升就比较少了。这部分的结果很依赖于具体任务的实现,或许用上了更先进的神经网络优化方法,词向量作为初始值带来的影响又会有新的结论。
—————-枯燥结束的分割线—————-
完全公平以及全面的比较是很难做到的,我们也在尽可能尝试逼近这个目标,希望这些结论会有用。请批评指正。当然,也非常非常欢迎引用~~~~~
谢很贴心的附上中文导读,一口气拜读完。不能更赞同语料对词向量的影响。自向量化表示被广泛应用以来,横向评比就不再有公平性。之前在基于word2vec的paragraph2vec上做20类别的聚类任务,调参过程ACC可以10%变化到70%不得说调参也很可怕。
我是你的粉丝!。。。
赞详尽的实践对比
“For corpora larger than those
we tested, the more complex models LBL and NNLM may
be the best choices.” 从 Table 6 看不出这个趋势,预期相关的结论是否合适?
趋势是有的,小语料的时候LBL一次都没win,大的时候win的变多。不过这个确实就是猜测,现在是用may,可能换种表达会好点。
您好!请问您文中说的“最后记得设置迭代次数为三五十次”。请问三五十次是指3,5,10还是指30,50?谢谢!
30、50次。最好还是用任务的验证集来测试。随便挑个30次,效果也不会太差,一般90%的效果还是有的。
“主要原因就是,训练词向量的目标是,尽可能精确地预测目标词,这一目标和实际任务并不一致。所以更好的方法是,直接拿实际任务的验证集来做终止条件。”
想问一下,什么是直接拿实际任务做验证集。比如我要做词性标注,那就在训练词向量时把输出层改成词性标注对应的吗,那神经网络的目标函数不就变了吗?
本人目前新人一个,请指教
训练词向量的部分不变。词向量每迭代一次,拿去测试一下词性标注任务,看看效果。
如果我的词性标注任务也用神经网络,没训练过的,那咋办? 再者每迭代一次都测试一下别的任务,这成本有点大吧
一般迭代30次就差不多了。追求极致的时候再尝试那些复杂策略。
再问一下,训练词向量的维度以及网络优化方向对向量性能,我这里主要指对神经网络初始值优化方面有什么影响。训练词向量时如果有层级softmax或者打分,有没有优劣之分?博主做这方面研究时是用matlab吗,还是java, python之类的?谢了
莱神,请问您“拿词向量作为神经网络的初始值”是指作为神经网络节点的初始值吗?这个地方不太理解。。每个词向量应该是仅表示一个词的,直接用任意一个词的这个向量作为隐层的初始值吗?能否指点下,或者推荐个相关文章。感谢!
请问楼主使用什么计算资源做的计算,稍微跑了下本地电脑,完全是不可行的
主要用实验室的服务器。跑一个词向量用PC完全是可以的,大规模的实验还是用服务器吧。
So cool!
另外RNNLM得到的word vector在这些任务上的表现与其他模型的表现相比如何呢?
RNNLM在做词向量这方面,基本上被word2vec取代了。Mikolov提出word2vec的论文里有过对比,我们就没比较了。
另外,关于这个文章有一些疑问,在Table 1中提到 skip-gram 是根据 c predicts w, 难道不应该反过来吗?后文还有一句话,skip-gram models uses one of the context words as the presentation of the context,这个怎么要怎么理解呢?
感谢你的解答!
其实模型是对称的,哪个预测哪个都是对的。比如一个序列1 2 3。
1预测2
1预测3
2预测1
2预测3
3预测1
3预测2
既然每个词都去预测了周围的另一个词,把谁看成c,把谁看成w,都是一样的。
按这样讲,skip-gram和cbow有什么本质上的区别吗?
另外,文中建议,大语料是cbow会优于skip-gram。这有什么直观上的解释吗?谢谢!
个人理解是,cbow的上下文表示比较复杂一些,表达能力强一些
你好,我最近在关注word2vec,读了您的文章,有很多不明白的地方,想请教你一下,不知道表4中的百分值是如何算出来的,有公式吗?由于我刚接触这方面,是个小白,还望大神指点,谢谢!
表4里的值都是任务的实际结果。比如syn、sem都是用word2vec里的compute-accuracy计算的。别的任务也类似。
看了您的paper,感觉很厉害啊
state of the art 不是一个形容词么?意思是“先进”。 Bengio当初只是用这个来形容它那个东西不是直接那么命名了吧。
你说的没错。似乎我没提到state of the art啊
您好!菜鸟一枚有个小问题请教一下~
我看word2vec理论的时候也看到说词序是无所谓的,但是在实践时,我发现词序不同,训练出的模型效果非常不一样,词序正确时是要好很多的。请问这是为什么呢??
我觉得词序肯定是有影响的,word2vec去掉局部词序主要是为了加速。
博主好,我对您提到的word2vec的方法没有使用词序,不是很理解。是因为 对于CBOW,p(c|w),这里c的处理是加和而不是 像 A Neural Probabilistic Language Model 这篇论文一样拼接起来么? 对于skip-gram,直接就p(w|c)了,也没什么词序可言。 但我不是很理解为什么将词序去掉就加速了呢? 谢谢!
就是和你理解的一样。其实词序是有部分保留的,毕竟更远的词不会被算进来。但是附近的几个词的先后顺序,在word2vec里没法体现出。
您好,最近在看词向量,有一个实际问题想向您请教一下。假设我们现在要用RNN Encoder-Decoder来做一个中英翻译(反正就是类似的seq2seq任务),用训练好的词向量作为输入和随机生成的应该有区别吧?还有就是在训练语言模型的过程中词向量作为副产品得到,那么这个训练的目的是得到什么?
预训练的词向量通常可以让有监督任务收敛到更好的解。
It’s really cool, so you re-implement the method of C&W and NNLM??
Yes, I re-implement simplified version of these two models.
这位老师,您好,请问你可以给我一个您们这篇论文《Recurrent Convolutional Neural Networks for Text Classification》的代码吗?如果可以不胜感激,就发我邮箱,谢谢
已发
给我发一份如何,谢谢。你的论文感觉有些地方不明白,希望沟通一下。
老师您好,请问你可以给我一个您们这篇论文《Recurrent Convolutional Neural Networks for Text Classification》的代码吗?如果可以不胜感激,就发我邮箱(1193144641@qq.com),谢谢
已发
您好,请问你可以给我一个您们这篇论文《Recurrent Convolutional Neural Networks for Text Classification》的代码吗?如果可以不胜感激,就发我邮箱,谢谢
已发
老师您好,能不能给我发下您们这篇论文《Recurrent Convolutional Neural Networks for Text Classification》的代码?我的邮箱1512568691@qq.com 谢谢老师
在“常用链接”里有:http://licstar.net/links
您好,最近在研究RNN的分类使用,我也想研究一下您的《Recurrent Convolutional Neural Networks for Text Classification》的代码,能提供一下吗?谢谢。
请教楼主一个问题,有没有试过对embedding用l2 regularization,效果怎样?几乎没看到过有人讨论word embedding的overfitting问题,楼主论文中提到了如果训练太久会overfitting,说明这个问题还是存在的,为什么没有人用l2等regularization方法解决这个问题呢?还是因为加l2会导致其他task的性能下降?
我自己没尝试过,可以尝试。只是我个人觉得加这个限制没什么用,因为看现有的词向量,没有出现参数特别大的,实践上怎么样还不知道。
我觉得论文里面发现的overfitting主要是因为训练目标和实际任务不一致导致的。
这么有价值的论文必须在此感谢下作者!
博主真的很厉害啊,想请教一下博主,有已经训练好的中文词向量吗?
没有现成的,可以参考这篇文章 http://licstar.net/archives/262,然后用word2vec训练一下,应该挺快的。
博主,这个链接打不开呀?我还想请教博主一个问题,用Wordvec训练的话是找一个与我们的实验数据相似的语料去训练,然后通过查询训练好的词向量来初始化我们的实验数据呢还是直接用Wordvec将我们的实验语料生成向量的表征形式呢?
我觉得这两个方法都可以试试。
arXiv的链接有时候确实不稳定,可以换个网络试试。
本人毕业论文也打算做这方面的工作,受益匪浅
老师,您好,想研究一下您的《Recurrent Convolutional Neural Networks for Text Classification》的代码,方便的话可以提供下吗
可以,已发
非常有意思的文章!
请问楼主对vocabulary size对performance的影响有做分析吗?vocabulary size过大会可能会导致引入过多noisy long-tail words,也会影响效果。
这篇文章没有分析。我一般定vocabulary siz的方法是,保证vocabulary里面的词在语料中出现的次数大于几十次。yoav建议是100次。
博主你好,我最近在研究CNN和RNN在文本分类中的应用,看了您的论文《Recurrent Convolutional Neural Networks for Text Classification》,对于第一个left context和最后一个right context的初始化、参数的计算过程这些细节的地方不太明白,能否提供代码学习下?谢谢!
已发
你好,2014年9月版的是哪个word2vec?能给个链接吗?我这里是2013年8月的版本,google code 对应的。
https://code.google.com/archive/p/word2vec/source/default/source
这里有最新代码
老师,您好,读您的博客受益匪浅,也想研究一下您的《Recurrent Convolutional Neural Networks for Text Classification》的代码,方便的话可以提供下吗
邮箱:2776131745@qq.com
已发
老师您好,请问你可以给我一个您们这篇论文《Recurrent Convolutional Neural Networks for Text Classification》的代码吗?如果可以不胜感激,就发我邮箱(1193144641@qq.com),谢谢
已发
大神您好,看了您的文章和博士论文,对我有很大启发,请问方便提供一下《Recurrent Convolutional Neural Networks for Text Classification》的代码吗,感激不尽!
已发
老师您好,刚刚读了您的《Recurrent Convolutional Neural Networks for Text Classification》的论文,对里面CNN部分的实现很感兴趣,想问一下代码可以提供一份吗?如有打扰万分抱歉:)
已发
你好,最近在做这方面的研究,请问能不能把你的代码发给我下,顺便把你的QQ号也发我下,交流交流,谢谢了~
这个代码已经放到 github了 https://github.com/licstar/compare
您好,请问你可以给我一个您们这篇论文《Recurrent Convolutional Neural Networks for Text Classification》的代码吗?如果可以不胜感激,就发我邮箱,谢谢
已发
老师,您好
我在 https://github.com/knok/rcnn-text-classification 上发现了有位日本研究员实现了《Recurrent Convolutional Neural Networks for Text Classification》的代码。
但这个是python的 没怎么接触过 外加测试的是日语,读得不明不白的。
方便的话请老师发一份您的代码给我,谢谢。
已发
博主您好,tensorflow官方教程(https://www.tensorflow.org/versions/r0.11/tutorials/word2vec/index.html#vector-representations-of-words)中一段描述:
CBOW smoothes over a lot of the distributional information (by treating an entire context as one observation). For the most part, this turns out to be a useful thing for smaller datasets. However, skip-gram treats each context-target pair as a new observation, and this tends to do better when we have larger datasets.
也就是说语料大的时候用skip-gram较好,和博主说的相反,这个需要如何理解呢?
其实我觉得“by treating an entire context as one observation”里面的“entire context”变化数量比context-target pair更丰富,所以很难直接理解他逻辑。可能在某些场合里面skip-gram会在大语料下效果好,只是我的实验没有发现。
话说没找到怎么联系文档的作者,好想直接问问他。
要不去提issue吧,哈哈哈,我也很想问
哈哈,我也看到这点了。不知道老师在这个问题上有没有最新的看法?
我自己做实验用的数据是500万+个平均长度为15的句子,得到的是CBOW的效果比skip-gram好,但是我不确定我这个语料算大吗
和wiki的几十g相比,我觉得我这个还是小语料的
老师,同求《Recurrent Convolutional Neural Networks for Text Classification》的代码
已经放到http://licstar.net/links
For the skipgram, the direction of the prediction is simply inverted, i.e. now we try to predict P(citizens | X), P(of | X), etc. This turns out to learn finer-grained vectors when one trains over more data. The main reason is that the CBOW smooths over a lot of the distributional statistics by averaging over all context words while the skipgram does not. With little data, this “regularizing” effect of the CBOW turns out to be helpful, but since data is the ultimate regularizer the skipgram is able to extract more information when more data is available.
(https://www.quora.com/What-are-the-main-differences-between-CBOW-and-skip-gram-operationally-and-empirically-speaking)
跟你说的(语料库小用skip-gram,大用cbow)恰好相反。
多谢,我发邮件和这个作者讨论一下。
拜读。
读到”实验中最意外的结果就是,语料对词向量的影响比模型的影响要重要得多得多得多(重要的事说三遍)。本来我只想固定一个语料,公平比较模型,结果却发现语料比模型重要(抱歉,是四遍)“
时,我就在想,神经元网络的本质应该不单单是抽象,然后抛弃原始数据,而是把原始数据特征以一种我们没法理解的方式储存起来。所以语料是无损的信息,而模型是经过抽象和压缩后的有损信息。
不知道这么想对不对,还在学习搭tensorflow 的基础框架,完全是萌新。
能把原始数据存下来肯定是最无损的,不过模型也是有意义的,因为语言是无法穷尽的,如果模型能学到通用的抽象泛化,就能做预测了。
你好,我在处理维基百科英文语料的时候。使用Wikipedia Extractor还有51nlp上的process_wiki.py代码抽取enwiki-latest-pages-articles.xml.bz2 时,抽取到一部分就报错了,我尝试在谷歌上搜索到一个回答是下载文件破损,于是我又重新下载了一次,并且核对了文件大小,但还是抽取到几百M的时候报错,接下来我有下载了维基百科英文3月20,3月01等后面几个版本,最成功的一次大概是抽取到10.8G的时候报错~~想请教一下来博士当时有没有遇到这种情况,还有我接下来改怎么做~~
你好,能问一下你中文词向量是怎么评价的吗,评价的数据集去哪里找,发现好难找这个~~~~~
https://github.com/Leonard-Xu/CWE/tree/master/data 这里有一些中文的数据集
没遇到过……一般文件大小对了多半没问题了。更放心一些可以看一下MD5对不对,MD5的值可以在下载页面查到。
发个帖子就是为了表示一下感谢,非常感谢分享,很多信息非常重要。
老师您好,我也想读一下您的《Recurrent Convolutional Neural Networks for Text Classification》代码,希望老师可以发我一份。谢谢您!
http://licstar.net/links 这个页面可以下载
博主你好,你在评价词向量质量以ws作为评价指标时,其中使用所有标注者打分的平均值作为参考得分 X,以
词对的两个词向量的余弦距离作为模型得到的相关性得分 Y ,并衡量这两组数值之间的皮尔逊相关系数。两个词对的余弦距离的值应该是介于0到1之间的,二标注者评分值是0-10之间的,从code里面查看我没有发现进行归一化了,我想问这里应该时需要使用归一化才能计算它们之间的p皮尔森相关系数吧?
皮尔森相关系数不用归一化的
https://zh.wikipedia.org/wiki/%E7%9A%AE%E5%B0%94%E9%80%8A%E7%A7%AF%E7%9F%A9%E7%9B%B8%E5%85%B3%E7%B3%BB%E6%95%B0
前辈您好,阅读了您的文章以后感到学习到挺多的。希望老师您能指导一下还可以从哪个点做一点小小改动以帮助完成一篇shuoshi paper
I really appreciate your great works. I tried to run the evaluation ‘avg’, but failed to have the message “OSError: [Errno 2] No such file or directory: ‘vec_ivlblskip'”. I didn’t find any model directory in the github page. Would you please help me to overcome this issue? or would you please send me the total working code at muhammedazamkhan@gmail.com? Thank you very much.
The file vec_ivlblskip is the embedding you want to evaluate. You can rename your code to that or change the “models” variable in avg.py
Hello 请问可以转载到个人博客吗?
可以,注一下这个页面地址就行
您好,我想要复现您的代码,可我发现运行您的代码会有报错,可以麻烦您较为详细地解释一下代码运行的方法吗?不胜感激。
每个任务都有写readme,一般照着执行就可以了。请问是哪个任务运行不起来,我完善一下readme
代码中 evaluation [“ivlblskip”, “ivlblcbow”] 这个目录下 存放的是什么文件,刚开始学习NLP 想用代码练习下,但是执行的时候对这个执行的内容理解的不是很清楚,希望能解答一下,或者更新一下github 上的Readme,谢谢
比如说托福 TLF 这个练习怎样才能完整的运行呢?
抱歉这份代码确实写的比较乱,最近也没时间优化代码。最好是看一下论文,论文里写得相对比较清楚。
最近偶然看到了一篇题目很类似的,又来评论一下,那篇的题目是 How to Train Good Word Embeddings for Biomedical NLP
膜拜一波,我决定把你们文章全看一遍
前辈你好!我最近正在做nlp方向的毕设,有几个问题想请教您一下:
1.您说的评估方法里,第二个:在系统中加入词向量作为特征(如文本分类),和第三个:把词向量作为神经网络的初始值(如情感分析),请问这两种的区别是什么?如果文本分类用到了神经网络的话算是第三种吗?
2.如果已经有了在大规模范领域语料集上训练好的词向量,现在需要做特定领域的nlp任务,有一些领域特殊词,有没有什么方法可以二次训练这些词向量来获得更适合领域的词向量?
1. 用作初始值的话,一般是在后期fine tune的时候会修改对应的值的。做特征的话,那些值是不会修改的。
2. 借助大规模语料辅助训练小语料,我没有好办法,之前的一些尝试发现各种融合方法还不如直接用小语料训练效果来得好。不知道近两年这方面有没有什么进展。
大神你好,拜读了你这篇论文有几个地方不懂。语料大小那里B是指GB吗?还有avg,ner,和pos(尤其是pos)为什么random embedding的效果也还不错?
ner和pos任务的random embedding只是作为一个初始值,网络优化的好还是能取得很好的效果的。
B是指Billion Token,可以理解为G。
ner和pos任务里,embedding只是做神经网络的初始值,初始值会影响收敛效果,不过一般不会是决定性效果。神经网络随机初始化也是一种很常见的方法,所以效果也不会太差。
博主大大你好,想请教下:我想用商品评论文本来挖掘出商品的某些特征,基本思路是想用word2vec训练出商品的词向量,我觉得这里的词向量就代表了某个商品的全部特征,然后再用降噪自编码器对全部特征进行降维,筛选出重要的特征,不知道这样对不对?同时我看到有论文是用tfidf来对某个商品评论进行特征选择,tfidf和word2vec在作用上相同吗?谢谢大大
如果直接用word2vec训练商品的向量,可能有一定的局限性。因为训练word2vec的时候,每个词只看到他周围很少的词,可能是10个。训练商品的表示可以考虑用一些文档向量的方法,把评论组合起来,或者根据用户的其他行为特征。个人观点供参考。
谢谢博主大大,还想请教,使用word2vec和doc2vec来训练英文语料到底要不要去掉停用词和标点符号呢,网上找不到一个权威的观点,特此请教博主大大。
一般不去掉,不过在训练的时候会降权处理
大神你好,我想复现一下您的工作,但是获取您论文中用到的语料时遇到了很多困难。你不介意的话可以把训练用的语料分享一下吗,尤其是在评价语料大小时用到的那一组
维基百科的语料可以参考我的这篇博客的介绍下载 http://licstar.net/archives/262
纽约时报的语料是实验室收费购买的,不方便分享出来。
您好,我在做微博的情感分析,有大约100G的语料,但是我不知道怎么处理,直接用word2vec训练出向量只试过100M的文件,100G的语料是几个大约17G的txt文件组成,我看过52nlp那个站点的一些博客,在处理大型语料的时候,都是将其进行分割,然后循环处理,请问还有别的方法吗?
直接用c++版本的word2vec的话,直接一整个文件也是可以处理的,大文件可以直接跑。
前辈您好,今年出了一片基于汉字笔画信息的中文词向量算法研究的论文,提出cw2vec模型,想知道您对这个模型有什么看法,或者有什么改进的思路方法或者假设。
(没看过这篇论文)其实我个人理解,笔画虽然会包含一些有意义的信息,但可能带来的提升很有限,一个笔画对应的汉字,可能意思太杂了。清华的这篇论文感觉更靠谱一些《Improved Word Representation Learning with Sememes》
在《Deep Convolution Neural Networks for Twitter Sentiment Analysis》这篇论文中,作者用的GLOVE
词嵌入方法,生成词向量,为什么还要将词向量和unigram特征和词情感极性得分拼接一起,这样是效果好吗,我认为也拼接不上啊,维度没发确定
词向量和传统特征有点互补,所以可以考虑放到一起。不过最近这种方式已经比较少了。维度其实不是问题,词表是10万的话,拼在一起可能就是10万+50维
要是能早点看到大神的这篇文章,就能少走很多弯路了,之前踩了好多坑,可是觉得还有很多坑没踩完。。。想请教大神几个问题:
1、我现在把文本合成语料库,如果存在两个或者多个一模一样的文本,会对语料库和后面的模型有什么影响吗?
2、看到评论里商品词向量的那个例子,周围词的个数少于10会对模型有很大影响吗?我用的gensim的word2vec库,里面默认的上下文的个数是5,所以不知道大神对这个有什么建议吗?
3、结合上面两个问题,如果我在生成语料库的时候,是不是把词个数少于10的文本去掉会比较好?
还望大神看到可以指点一二,万分感谢!!!!
1. 有重复数据没问题的。有时候数据不平衡可能还需要自己复制几遍部分数据调平衡。
2.3. 低频词去掉是一种常见的办法,也有把所有低频词都替换成一个同样的符号,比如UNK。至于低频词的阈值可能需要根据实际情况调一下。我常用5,也有人建议100.
老师,毕设打算做文本分类,想在词向量上有所创新,看了很多,现在有点凌乱,您能在词向量创新上给点建议嘛,指点一二,不胜感激!
多谢支持。我已经很长时间没有关注这块了,可能和最近还在研究这块的人交流比较好。比如发邮件给新论文的作者。