cjpnudt的个人博客分享 http://blog.sciencenet.cn/u/cjpnudt

博文

[读论文]---062 一个自然语言处理的统一的架构:面向多种任务的

已有 2552 次阅读 2016-6-27 17:56 |系统分类:科研笔记

A Unified Architecture for Natural Language Processing: Deep NeuralNetworks with Multitask Learning

一个自然语言处理的统一的架构:面向多种任务的深度神经网络

Abstract

We describe asingle convolutional neural network architecture that, given a sentence,outputs a host of language processing predictions: part-of-speech tags, chunks,named entity

tags, semanticroles, semantically similar words and the likelihood that the sentence makessense (grammatically and semantically) using a language model. The entirenetwork is trained jointly on all these tasks using weight-sharing, an instanceof multitask learning. All the tasks use labeled data except the language modelwhich is learnt from unlabeled text and represents a novel form of semi-supervisedlearning for the shared tasks. We show how both multitask learning andsemi-supervised learning improve the generalization of the shared tasks,resulting in state-of-the-art performance.

我们描述了一个单一的卷积神经网络结构,给定一个句子,输出一个可信的语言处理预测:词性标注,分析(分块),命名实体识别,语义角色,语义相似单词以及相似性,句子从语法上和语义上都非常合理地使用一个语言模型。整个网络在所有这些任务上使用权重分享,一个多任务学习进行联合训练。所有的任务都使用打标签的数据,除了语言模型意外,语言模型通过非标注的文本数据学习,而且代表了一个通过共享任务的进行半监督学习新颖形式。我们证明这种多任务学习以及半监督学习改进了共享任务的生成,带来了最佳的效果。




https://blog.sciencenet.cn/blog-656867-987117.html

上一篇:[读论文]---061 基于邻居的协同过滤的设计选择的一个实验分析
下一篇:[读论文]---063 NLP从零开始
收藏 IP: 202.197.9.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-21 02:41

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部