武夷山分享 http://blog.sciencenet.cn/u/Wuyishan 中国科学技术发展战略研究院研究员;南京大学信息管理系博导

博文

论文评审意见汇总(18)

已有 1428 次阅读 2021-5-29 07:25 |个人分类:科学计量学研究|系统分类:观点评述

论文评审意见汇总(18

武夷山

 

第一则

本文修改后可发表。建议从以下几方面修改。

1.      标题,是否可改为“知识域可视化研究的数据准备”之类。“双引”是什么?所指不确。作者无论是介绍共被引,还是介绍耦合,都是为可视化研究的数据准备阶段服务的,本文并未讨论可视化阶段的工作。

2.      最好举一个典型例子,该例能够明确区分什么是知识可视化,什么是知识域可视化。我现在读此稿的感觉是:二者一回事,只不过不同的人用了不同的名称。

3.      建议作者把domain的概念好好介绍一下,这个概念在读者心中清楚了,就不再需要介绍知识域了。按文中的说法,知识域就是学科知识领域,那么把标题改为“学科知识领域可视化”好了,扯什么“域”呢?可见,本文现在对“域”的讨论相当随意。

4.      共被引是从期刊论文数据做起来的。将此概念延伸到作者共被引,就出现一个新问题:如果A作者的一篇会议论文和B作者的一本著作同时被引,算不算共被引?同样,若被引用的分别是两项专利的主发明人(两篇专利文献各自的第一“作者”),则这两篇专利文献算不算共被引?希望作者讨论一下,共被引是否必须局限于期刊论文?Why

 

第二则

 

本文选题很好,是一篇优秀的论文。修改意见如下。

1.      作者在说明被引源项概念时,举了大学、期刊、论文三类例子。其实,引用认同(citation identity)是引用方向相反的类似概念——一个作者总共引用过多少位其他作者。建议作者引用一下“引用认同”概念,这样,作者这篇文章问世后,则一正一反(引用方向)两方面的工作都有了。

2.      文献引用方面,Bar-IlanJ.的那篇文献是集大成之作。但是,国际上很多学者指出,一定要注意引用原始文献,而不是综述了原始文献的二次文献,这样才能凸显原始文献作者的贡献,不让综述作者获得过高的荣誉。本文在引用原始文献方面尚显不足,例如,Sylvan Katz的一篇论文似乎不可不引:

The self-similar science system

JS Katz - Research policy, 1999 - Elsevier

A system with a self-similar property is scale-independent and statistically exhibits that property at all levels of observation. In addition, a power law describes the distribution of a scale-independent property. Many investigators have observed social activities and ...

Cited by 138 Related articles Web of Science: 53

3.      在说明为何国家数据的拟合程度不好时,不仅要指出国家数量少,全世界才200多国家,尤其要指出国家大小不一,小国家全国的论文量还不如大国一所大学的论文量多(可找典型的例子来对比)。这样的事实更有说服力。

4.     一些小地方也要注意。如,北卡罗来纳,不是“北卡罗来那”;为什么表1中有两处是美国威斯康星大学、美国密歇根大学,难道别的国家也有威斯康星大学吗?要么在大学名称前都写国家,要么都不写。

第三则

1.     题目有“智慧发现”,全文没有一处有“智慧发现”的定义。

2.     本文将服务对象分解得比较清楚,这属于需求方;“供应方”(资源集合)的情况则语焉不详,比如,对哪几类信息资源(论文、专利、奖励、学术履历等等)进行挖掘,对之做出什么样的分析与综合,才能产生出“人才引进候选对象”的清单?希望举一个这样的典型例子,才能使读者明白智慧发现指什么,这一功能的吸引力有多大?

3.     国外有没有类似的平台?不管叫不叫智慧发现的名称。国外有没有其他值得我们借鉴的东西?例如,智慧发现平台需要强大的算法,美国婚恋网站的“配对算法”其实对我们的人才发现与推荐功能很有启发。现在的稿子对国外文献完全没有交代。

 




http://blog.sciencenet.cn/blog-1557-1288700.html

上一篇:小说亦良药
下一篇:既是科学家又是艺术家的著名人物

8 郑永军 李宏翰 李毅伟 任胜利 杨正瓴 范振英 陆仲绩 李杰

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2021-10-20 18:17

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部