最近关于依存句法分析的小想法还在不断思考之中
读了几篇之前读过的依存句法分析的论文
又把神经概率语言模型的论文重新看了一下
现有的依存句法分为两大类:
1)graph-based:代表是MSTParser
2)transition-based:代表是MaltParser
两者的准确率整体上比较近似,只是各有所有
graph-based的优点是训练时使用的全局方法,缺点是不能利用太多历史信息
transition-based的优点是可以较多地利用历史信息,缺点在于使用的局部贪心算法
在长距离依存问题上,graph-based方法表现更好
在短距离依存问题上,transition-based方法表现更好
最近的发展主要有如下几个:
1)改进graph-based方法,使其可以更有效地利用历史信息,即采用high-order
2)将graph-based方法与transition-based方法结合起来
3)没有试图改进transition-based方法的,因为这样做就相当于feature enginerring了!通过选取新特征来提高分类器的准确率近期已经不受关注了。。。。
最近自己的这个想法不能归为以上的几类中,这个像是把领域中其它方向的方法用在这里
这个想法中涉及到两大问题:
1)基础的方法,即把神经概率方法基本上原封不动的应用在依存句法上。
依存句法本身涉及到两个问题,即learning和parsing
神经概率方法的learning可以原封不动的嫁接到依存句法上
新模型的parsing算法需要仔细考虑,这个地方是比较麻烦的
2)如何在基础方法上添加新的元素,现在大约有如下几种:
提高速度,使用某个算法将所有的词汇分类,这样在learning和parsing的时候可以大大提升效率
统计关系学习,统计关系学习是今年暑假期间看的,应用在信息抽取上的比较多,但是两者之间有很大的相似之处,这个以后考虑一下
先验知识信息,如WordNet
深度学习,深度学习从2006年开始的,最近两三年特别火。最初的想法是将深度学习应用在依存句法上,一直没有想法,留在以后考虑。
https://blog.sciencenet.cn/blog-795431-649681.html
上一篇:
一种新的语言模型:a neural probabilistic language model下一篇:
依存句法分析