||
最近忙的掉渣,差点忘了科学网的存在。趁着今天头脑昏昏,干不了正事,弥补一下博客多日的空白。
最近开了一些会议,我们自己主办的计算语言学会议,外语学院主办的认知语言学大会还有一些中小型会议。忽然觉得NLP和纯语言学的会议有共性,也有很大不同,那就列个表格吧。
对比项 | 引进或使用国外理论 | 借用国外工具 | 报告表达效果 | 研究特点 | 投稿方式 |
NLP | 大部分 | 大部分(神经网络) | ppt强于oral | 强调应用效果 | 长文双盲 |
语言学 | 大部分 | 大部分(WMatrix, Word Smith 等) | oral强于ppt | 注重特殊语言现象 | 摘要 |
从这种分析可以看出,大部分的选题都是运用了国外的理论来研究中英文的语言问题,一个侧重教学或特殊语言现象,一个是面向NLP实际应用。在工具方面,也很相似,都是用国外的工具包和算法为主。NLP领域的算法看似高大上,但一眼望去,神经网络、深度学习都是舶来品。语言学的报告质量显得略高,大概是文科的口才更好哈。在审稿制度上差别比较大,语言学的会议大都是邀请制或者摘要评审,录用率一般高于50%,主要讲究同行交流。NLP的会议则采用国际惯例,采用双盲投稿评审制度,录用率只有30%左右。从研究成果来看,语言学的应用性比不了NLP,研究所得的往往是更多的问题,而非问题的解决方案。NLP力求更高、更好的自动分析处理效果。但是在会场氛围上很有趣,语言学的更专注与热烈。300多人的会议,分了12个平行会场,每个会场都坐满了,而且发言讨论热烈,对各种语言现象乐此不疲。相比之下,计算语言学会议之前都分多个并行session,但分布极不平均,所以去年开始改为了单会场运作。即便如此,在很多时候大家听会也并不太认真,因为深度学习的框架差不多,区别是处理任务不同和实验细节略有差异。
总的来说,复杂多样的语言现象是语言学界的口香糖,越嚼越香;对NLP领域来说,语言现象没啥要紧,关键是要更强大的硬件和机器学习算法来刷分。为什么就不能结合起来呢,用机器学习的牛刀来分析和解决语言问题。
语言是复杂的,如果它简单,早已被alpha们攻破。对于复杂系统的把握,单单靠拍脑袋也难,从目前来看,对语言现象的建模,需要的还是对语言现象的数学化描写,寻找合适的数学模型。此事待不得别人,赶紧做吧。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-9-27 09:24
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社