zoumouyan的个人博客分享 http://blog.sciencenet.cn/u/zoumouyan

博文

再谈工科研究生如何做研究 (第一部分:关于研究选题) 精选

已有 11249 次阅读 2012-6-25 20:08 |系统分类:教学心得| 研究生, 如何, exactly

              再谈工科研究生如何做研究  (第一部分)

 

                       邹谋炎

            (中科院研究生院暑期讲座材料,2012625日)

   

    我于2009年受邀做了题为“同工科研究生谈谈如何做研究”的报告,该报告后来贴到科学网络上,引起了更多研究者的注意。近年来不少研究生和研究者给我发信,就如何做研究进行了更深入广泛的讨论。来信提出的问题大致集中在:如何进行研究选题;如何处理工程任务和论文工作的矛盾;如何提升研究工作的创新性;如何面对和处理就业压力;或者如何才能成为一个创业者,等等。问题很实在和具体,来源于不同背景和发展愿望的研究生。要对所有这些问题给出中肯的回答事实上超出了我的能力。在09年那个报告中就如何做研究谈了一些体会,今天的报告只集中谈研究选题和科技创业两个问题,作为对09年报告的补充。

 

一、关于研究选题

 

    1、“科研追热”是不是可取?

 

    “科研追热”是国际性的通病,有的学者将此称为“鱼群现象”。有人抛出一个新想法,其他人以为有事可做,于是一拥而上,形成热点。参加讨论的人多了,自然能够对新想法进行发展和发掘,产生出若干有意义的结果。“鱼群现象”的某些效果和后果是可以观察到的。首先,新想法是提出者及其研究团队已经成形的结果,他们始终处于创新性的制高点,其他跟踪性研究通常难以达到重要的创新性。第二,大多数“热点”来源于校园,而非应用需求。研究先于应用本属正常现象。然而,随着热潮趋于平稳,跟踪性研究者们会发现,取得的研究结果难以找到应用需求,虽然他们已经为此付出了若干年的青春。这种情况对中国的研究者相当普遍。出现“鱼群现象”的基本原因是大家都在找题目,大家都要生存。学校与应用部门和产业的距离越大,“鱼群现象”就会越普遍。

    研究生和年轻研究者需要了解“科研追热”的利弊。在有利方面,这自然是决定研究选题最省事的办法,特别是,如果你的导师要你自己去选题时。作为跟踪性研究者,通常不需要担心论文发表问题,重要的是一定要有自己的创新点。“追热”常常是年轻研究者的生存手段之一,也是学习专业知识和训练研究能力的有用方法。

    然而,成熟的研究者对追热的前景必须有清醒的思考。难以形成你自己重要的创新,这是必须重视的问题。我国自然科学基金,甚至某些863973项目的多年实践,为此耗费了大量资金和成批研究人员的青春,这是必须反思的问题。常常一个热潮来临时,人们可以在外刊上读到许多鼓吹性的“拓导”文章。那些由博士生写的文章常常对研究前景描述得过分乐观,而对热点理论和应用隐藏着的底层困难缺乏描述。原因可能在于认识水平,没有理由怀疑为故意。我们不妨回顾几个热点研究的例子。

 

    1:神经网络研究。

    国外的先驱性研究可以追溯到40~50年代,在电子信息领域的大热潮起源于1982Hopfield的工作。人工神经网络研究最原始的诉求是要寻求大量并行感知和处理的理论、方法和技术,模仿人的视觉感知、记忆、联想、和识别能力。随着研究展开,卷入的研究者主要来自电子信息、计算机科学、应用数学、医学人体科学等各个领域。取得不少进步是必须肯定的。问题是,人们的期待太急,大量并行感知、记忆、联想和识别理论和物理机制的进步远没有人们希望的那样快。涌进这个场地的人太多,许多人的工作很快就偏离了初衷。虽然Hopfield建议的能量最小化概念很容易被人们接受和模仿,当出现大量用能量最小化来处理例如数学方程求解这样的问题时,你将它称不称为“神经网络”就不重要了。数学家们关注于证明是不是能够用最少三层网络一致地逼近任意函数。大量研究神经网络学习和训练的论文,其方法基本上是局部化计算的。没有人证明局部化的学习和训练方法和大量并行处理是不是等价,或者大量并行处理又是什么情况。可以形象地说,所研究的若干网络有并行的构架,但缺乏并行的神经。在80年代后期,当国外研究已经进入“冷静期”时,中国的大热潮正在高涨。是否取得了什么值得称道的结果是众所周知的。直到今天,人工神经网络的研究仍然期待实质性的进步。为此,可能还需要更深入、冷静的准备性研究。

    

    2:高阶统计。

    80年前后高阶统计就在天文图像处理和通信信道均衡上得到应用。在电子信息领域中形成大热潮是1987年以后的事,高峰在1990年前后,不少数学研究者也卷入其中。高阶统计似乎拥有超凡的可能性,如辨识非最小相位系统。但是人们发现,一个仅仅2~3阶的系统的辨识,需要10万到几十万个测量数据,离实际应用太远了。几乎没有文章涉及最基本的底层困难:待处理信号高阶平稳性假定的确实性缺乏理论依据和仿真方法。

 

    3Markov随机场。

    电子信息领域中Markov 随机场的研究形成热潮是1984年以后的事,在90年代初形成高峰,卷入者包括大量的应用数学研究者。图像建模有几十年的探索历史,当Markov随机场找到了简洁的表达方式(Gibbs等价)后,许多人都感到兴奋和看好。然而,20多年下来,真正获得成功应用的还限于纹理分析和综合。基本困难在于:随机场模型假定的空间平稳性对实际图像一般不成立,并且缺乏有效的图像估计算法。

 

    可举的例子太多。仅从上面的几个例子可以看出,如果你带着一种审视的眼光来学习相关的新知识,用不了太深入,就可以了解到某些基本困难。虽然这只是“事后诸葛亮”的说词,问题是我们大量的研究人员一辈子都在重复这样的追热循环。

   

    2、关于选题的科学性或价值

 

    有同学问,面对一个研究题目特别是热题,我们如何判断它的重要性或价值?我相信很难找到一般性的回答。成熟的研究人员能够凭经验做出某些判断,但不能保证一定对,因为谁也无法预知待探索的结果。下面的议论仅供参考。

    有人将最重要的研究选题特征归纳为:基础 + 未知。这里的“未知”当然是指结果在目前未知。越“基础”越重要。如果你的工作将来会成为教科书的必要知识,那就是对人类的贡献。当然,达到这个可能性的研究会越来越难得。不过这不妨碍作为一个思考方向。

    在选题阶段就认定“创新性”是困难的,只能期盼。一个可能的选题,必须努力判定它的某些基本属性:基本思想是原发性的还是跟随性的?是普适性的还是特定适应性的?是理论规律性的还是技巧性的?我经历过的若干研究项目评审中感觉到,不少研究者习惯于收集许多文章的结果,进行技巧性综合。看起来申请书写的内容不少,但缺乏新思想。当然,发现理论规律性通常很困难,这不但要求研究者有很深入的数学和专业理论基础,而且要有机运。

    特定适应性在许多情况下是有价值的。典型的例子是近几年很热的以Curvelet变换为代表的各种X-let图像处理技术。这些技术用于图像去噪、修复、复原时,对某些图像类别很有效,但不是普适地(如常规的wavelet 变换)那样一般都比较好。这类特定适应性的思考如果能够面向实际应用问题,例如某种合成孔径雷达图像处理,可能比较容易形成研究问题的思路,但这是很有限度的。在许多情况下,限制研究问题的适应范围、深度、和尺度常常是取得有用结果的必要条件和有效方法。

    对于研究生论文过分关注选题的科学价值可能是不现实的,因为论文工作的时间和条件受限。研究生论文选题不能太大、太空,必须考虑可实施性。因此,研究生(包括博士研究生)的论文选题原则和职业或成熟研究者的选题原则应该是不完全相同的。一个成熟的研究者总是将选题的科学价值放在第一位,将达到重要的创新性作为奋斗目标。

 

    3、谈谈本领域的某些近期热点

 

    由于听讲座的同学都是学信号处理和图像处理的,我们就多聊一点这方面的研究选题问题。在最近一、二十年间,信号处理特别是图像处理技术出现了若干亮点。主要是现代数学的许多研究成果融入信号和图像处理,大量的数学研究者和应用科学研究者相互结合和交流,使得例如泛函分析这样的“纯数学”已经成了应用科学研究者的必修课。同样地,一大批数学教授做起了信号和图像处理研究,使得例如美国应用数学协会(SIAM)旗下的各种杂志大量地刊登信号和图像处理的研究论文。这种学科上的大交融的确推动了信号和图像处理的进步。学习信号和图像处理专业的研究生会发现,无论是IEEE系列、SIAM系列、或其他地区出版的本领域学术刊物,许多文章都深度数学化了。未接触过的数学概念和理论繁多,如潮水一样涌来的文章可能会使你眼花缭乱,不知所措。不过,如果你有一定的耐性,在学习一些文章后还是有可能整理出一个相对明晰的线条。

   

   1)偏微分方程法。

    偏微分方程法从1990 Perona Malik 的工作算起已有二十几年的历史。它的出现使得图像估计(重建、复原、去噪、修复等)和处理(如分割、配准)从技巧性向着科学化前进了一大步。相关的文章多,理论方法看似繁杂,其实主线条是“八股”。图像估计问题总是表达为一个能量函数的最小化。该能量函数由两项组成。第一项是原问题误差,反映重建、复原、去噪、修复的机制。第二项是对解的附加限制,它保证求解问题的规整化,同时通过这个惩罚泛函表达对解图像“外观质量”的诉求。因为在真实世界中,质量良好的图片,看上去是比较“卡通”的:线条清晰,黑白分明。能量函数最小化通常转化Euler-Lagrange方程的求解。在二维下是一个偏微分方程。

    要求一个偏微分方程能够给出一个“线条清晰,黑白分明”的解,也就是有若干跳变的解,可不是一个简单问题。在Sobolev以前,微分方程理论基本上是处理平滑解问题。Sobolev提出了广义导数和弱解的概念,使得求解理论可以处理连续但分段平滑的解,成为有限元方法的理论基础。存在阶跃的解没有广义导数,这超出了Sobolev空间涉及的范围。在气动力学发展过程中,为了研究激波现象,有研究者(如von Neumann)发现,在求解方程中人为地添加一个“粘性项”,可以使得冲击波解的出现和消失过程,通过数值求解表现出来。对跳变解的需求来源于应用科学的许多领域,但图像科学成为推动研究的主力。问题包括:什么样的微分方程能够给出跳变解?从机制上,什么样的惩罚泛函能够产生出那样的微分方程,同时又反映对解的物理合理性的限制?如何证明最终的求解问题的解的存在和唯一?最后才是如何进行数值求解?关于“粘性解”的重新定义和应用,在80年代以后已经取得重要进展。在图像处理领域中,我们仍然十分关心,什么样的惩罚泛函具有希望的性质。

    限制解的总变分是一个有用方法,使得可以“容许”解出现跳变,但没有特别“关注”解的跳变。于是研究人员在各个方面发掘可能性。让惩罚泛函具有各向异性平滑性质是一个非常重要的思想,因为它使得图像解线条清晰在概念上是直观的。这方面已经报道了若干重要进展,而更好的结果仍然在探索中。扩展总变分限制,加进新限制来加强对跳变解的关注是另一个有意义的考虑。一个发展是引进Besov空间的概念。Besov空间来源于插值和有理逼近,是一个完备的赋准范数空间。它可以包括一些更基本的函数空间,如Sobolev空间。对图像处理而言,最有用的是发现一类Besov空间Bqa(Lp) a < 1时,包含不连续函数。更进一步地,这种Besov空间的范数可以用小波变换的系数来表达。在图像估计的惩罚泛函中引入Besov范数就成了自然的选择。并且,小波域去噪有计算上简单的门限方法,借此有可能大大简化图像估计和处理算法。

  

   2)稀疏性、压缩感知、低秩矩阵估计、和凸优化

    信号处理中稀疏性的利用早在地震信号处理和通信信号处理中就有报道。例如将最小熵限制用于信号估计算法。让人们对稀疏性有更深刻认识的是压缩感知理论和方法的提出。人们发现,真实世界中的信号和图像,有各种各样可能的稀疏性:信号自身稀疏;信号在变换域稀疏;信号建模后模型参数很少;信号在变差域稀疏;如此等等。这些稀疏性可以作为先验信息在信号估计中利用起来。发现可以实现超越Shannon界线的压缩,为信息和图像的表示、存储、传输、和处理开拓了一个大领域。可能性非常诱人,可以提出的问题也很多。压缩感知成热潮的研究已有7~8年的历史。所报道的成果似乎没有人们期望的那么高、那么快。应该说这是正常情况。只是我们国内的跟踪性研究者限于在应用层面上做工作,获得重要创新性的结果更困难些。从应用层面上说,词典矩阵的构造仍然没有满意的通用方法。最主要的问题还是:信号重建需要经过一个数学规划(优化)算法。虽然在凸和非凸优化算法方面已经报道了许多进步,离工业应用还有不小距离。

    这方面寻找研究生论文选题应该是可能的。比较可行的做法是先在应用方面了解对图像处理的需求(压缩、去噪、分割、检测、跟踪等等),同时深入学习新方法的发展,并思考和寻求应用和新方法的结合点。注意成熟研究者应该摒弃这种方法,而是为达到应用目标寻找和创造最好的方法。

   

    3)流型(manifold)和Bregman 距离

流型是非常重要的数学概念。在课程中已经介绍了一点常识,同学们可以从另一个讲座材料找到科普型的介绍:“谈谈工科学生如何学习数学”。有同学很关心“提出流型的概念到底有什么用处”这样的问题。今天的讲座只能做粗浅的介绍。以人脸识别为例,假定人脸图像可以简化到只用3个数值特征来描述,一个人的各种表情就可以用一列三元数组数据描述,将这些数据放到3维空间中,就构成一个流型。张三的喜怒哀乐特征是一个流型,李四的是另一个流型。张三的表情变化只能在他自己的流型上移动,李四也是这样。利用流型的光滑性假定,只要有适当密的表情数据训练,他们的任何表情都可以在自己的流型上找到,而且不会和其他人的类似表情混起来。这个例子中流型的应用完全改变了图像识别算法的思路。在“谈谈工科学生如何学习数学”中还介绍了来源于概率估计问题的例子,可以进一步了解流型这个概念的重要性。

无论从理论还是从应用的角度,“距离”这个概念都是一个重要话题。因为可以用它来描述两个信号或图像的相似程度。Euclid距离是一个太窄的概念。两个图像在概率分布上的相似或不同,用概率分布函数的Euclid距离显然是不正确的,因为数学函数之间的距离和概率属性上的不同是两件事。流型的应用可能解决这个困难。使得我们可以考虑“在什么意义上相似”这样的问题。或许有一天,当我们比较一幅漫画和一张照片相似的时候,“在什么意义上相似”或构造什么流型是一个思路。

 Bregman距离起源于前苏联数学家Bregman关于凸规划问题求解的一个工作。它的引进和推导并不困难。很有意义的是,它为当前常用的距离度量提供了一个统一的构架,如Euclid距离;Kullback- Leibler距离;Bhattacharyya距离;I-divergence;等等。正是因为这个原因,Bregman距离和他建议的算法在图像处理中受到高度重视。Bregman距离肯定有继续研究的潜力。Kullback- Leibler距离有一个完美的流型上Riemann度量的解释。但其他的距离不全是这样。这存在着发展可能性。

    以上只简单地介绍了近期比较热的研究问题。

    这里需要强调的是,“追热”是不得已的选择。一个成熟研究者应该从热点研究中学习知识、了解动态,但必须寻找自己的独立研究方向。仅就图像处理而言,报告中涉及的各个点也只是这个领域的一小块。你们可以在图像处理相关的国际刊物上读到更丰富的内容。

 

    4、关于选题的几句话

 

    从物理需求出发,不是从某个新方法出发。为了达到最好的研究目标,创造自己的理论和方法永远是第一性的。

    提出问题,必须有清晰的物理观念,明确的物理要求。

    解决问题,尽可能用数学描述方法,避免局限于技巧性综合。

    专注是取得成功的有效方法。必须下决心专注于一个研究问题,不要轻言放弃。

 

    (待续)



https://blog.sciencenet.cn/blog-4909-585774.html

上一篇:从卷积的讨论看科技进步的艰难
下一篇:再谈工科研究生如何做研究 (科学研究者的创业之路)
收藏 IP: 210.73.1.*| 热度|

22 许培扬 王成社 吕喆 刘天亮 王加升 王洪涛 喻海良 王金龙 朱新亮 梁冬泰 张乐 李宇斌 李春华 殷学民 彭真明 谭伟杰 王满喜 祝伟才 liguoshuai ahsys withhighprob t66

该博文允许注册用户评论 请点击登录 评论 (21 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-25 09:56

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部