鲁晨光的科学和哲学研究分享 http://blog.sciencenet.cn/u/lcguang 兴趣:色觉, 哲学, 美学, 进化论,广义信息,投资组合

博文

经验谈:一篇挑战和改进经典信息论的文章如何通过审稿

已有 1791 次阅读 2021-9-27 03:24 |个人分类:信息的数学和哲学|系统分类:论文交流

香农信息论问世以来,应用在不断推广, 但是理论上没有明显的公认的进展。虽然后来者提出很多其他信息测度(比如度量预测信息、语义信息、模糊信息),但是和香农理论不太兼容,因而不被主流信息论接受。香农的信息保真度理论后来被发展为信息率失真理论,虽然方法更具体,但是保真度准则反而更狭隘了——保证度准则变成失真准则。而按香农最初思想,失真准则只是保真准则的一种。本人推广香农信息论,得到兼容香农理论的语义信息测度(http://www.survivor99.com/lcg/books/GIT/),并且把信息率-失真函数推广到信息率-真函数和信息率-逼真函数。作为总结,最近几年,我连续发表了四篇长文(见我主页:http://www.survivor99.com/)。最新的一篇文章Using the Semantic Information G Measure to Explain and Extend Rate-Distortion Functions and Maximum Entropy Distributions(《用语义信息G测度解释和推广信息率-失真函数和最大熵分布》  ),发表在Entropy上(英文 https://www.mdpi.com/1099-4300/23/8/1050 ;中文见:http://www.survivor99.com/LCG/information/ExplainRD/ExplainRD.html   ).

因为这篇文章是语义信息论对经典信息论的明确挑战,发表不易,审稿过程曲折。这里我把应对审稿的经验写出来供感兴趣朋友分享。

我投稿到Entropy期刊的Special issue: Measures of Information (https://www.mdpi.com/journal/entropy/special_issues/meas_inf), 首次投稿后,两个审稿人的意见差不多, 评价不怎么样, 算是40-50分,结论是:至少目前版本不合适发表。主要理由是:1)看不出推广信息率失真理论的理由;2)用新的解释推翻已有解释理由不充分。学术编辑的结论是拒绝。

我对审稿人很失望,心想:推广的理由是为了解决语义压缩问题啊?我的解释的如此巧妙,他们咋就不在意呢?

两天后,助理编辑来信说客座编辑问我是否愿意参照两位审稿人意见修改,然后再提交?看来客座编辑还是比较支持, 不愿放弃。我想了两天,找到了新的推广理由:1)失真函数是人为定义的,而且有时候很难定义;2)我们需要用机器学习方法从样本得到失真函数。另外我找到另一个语义压缩例子(通过模糊分类降低数据精度的数据据压缩)。

于是我回答说:我愿意修改再提交, 但是原来的审稿人不重视语义问题,我怕再提交还是通不过,所以希望既熟悉信息论也熟悉机器学习或对语义信息感兴趣的审稿人审稿。客座编辑答应了我的请求。

修改主要是两方面:1)加强通过机器学习得到真值函数和失真函数的叙述;2)删掉EM算法例子,用降低数据精度的例子。

我再投稿是按新稿件投的, 但是仍然附上了给前两位审稿人的详细答复和修改痕迹。我也提供了一些潜在审稿人信息, 但是不知道他们选了没有。

第二稿审稿人有三个,前两位给了几乎最高评价(出乎我预料),同时也提出了一些建设性的修改意见。但是第三位给了几乎极低评价,其主要理由是:没考虑上下文语义信息。学术编辑的结论是:有条件接受。

从第三位提供的参考文献可知他是谁,重点研究什么。原来他一直研究上下文(文字串和文字串之间)的语义信息。按照惯例,少数服从多数,第三位反对也未必有效。但是答复的时候,我还是尊重他,我说:“你的批评表明,其他两位审稿人评价高不是因为文章质量好,而是他们比较宽容”。针对他提出的问题,我说:你关心的是墙和建筑,而我关心的是砖头(言下之意是我关心的是更基本的东西),两者是互补的。他希望我引用他的最近的一本书,我觉得不合适,而他另一篇文章涉及语义信息,于是我在修改稿的讨论部分加进了那篇文章中讨论的信息公式——关于两个集合之间的信息,并提出了改进形式——考虑集合的模糊性和实例的先验分布。

结果第三位审稿人也表示愿意“宽容”一点,同意发表。但是也表示,我的语义信息测度有局限性。2, 我再次修改,加进了局限性讨论。结果文章很快被接受。从第二次投稿到发表不到50天。加上第一稿,前后差不多三个月时间。

我在鸣谢部分写道:本文初始版本经两位审稿人评审;重新提交的版本经三位审稿人评审。他们的评审意见带来了许多有意义的更改。特别是前两位审稿人的批评提醒我强调机器学习和数据压缩相结合。我感谢五位审稿人的修改意见、批评和支持;我也感谢客座编辑和助理编辑——为她们鼓励我重新提交手稿.

这篇容易引起争议的文章能够发表,主要原因是:

1.       问题和结论要有吸引力,符合期刊和编辑兴趣。推广的熵测度、最大熵问题和最小互信息问题是EntropySpecial Issue Measures of Information)特别关心的问题,而我提出的解释和推广特别有新意,这也是为什么客座编辑很支持。

2.       挑战文章,遭反对是难免的;但是也要考虑自己不足,把反对意见转为改进的指导。如果不是前两位批评,我不会提出要结合机器学习和数据压缩;不是第二稿第三位的批评,我不会讨论两个语句之间的语义信息。

关于语义信息论的更多讨论,见http://www.survivor99.com/lcg/books/GIT/




https://blog.sciencenet.cn/blog-2056-1305804.html

上一篇:语义信息和语义压缩研究进展
下一篇:我关于鸟和性选择的发现—— 一篇英文介绍含有更多有趣图片
收藏 IP: 108.172.164.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-26 10:53

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部