||
在1980S,采样定律以令人惊叹的方式打开了时变信号处理的大门:对一个特定频率范围的信号,在保持由其频谱可恢复原信号的意义下,采样率必须不小于其原信号最高截止频率的1/2。否则,就有混频效应,导致由其频谱恢复原信号时的失真。其数学证明在(好的)信号处理理论书中给出。
一个直观的解释是:对一个周期信号,其上半周和下半周的信号至少得有一个采样才能在原理上使得其频谱正确,从而能恢复原信号。
为了尽可能多的采样而又使数据量最小化(限于当时的器件水平),当时很热的一项研究是符号位采样方法(只记录+,-,0)。研究结论是:符号位采样方法所得到的谱能够恢复原信号。成功的好例子多得不得了,论文是“顶呱呱”的。其数学理论很强眼,也很吓人。
到了多维图象处理的时代(1990S-2000S),为了提高计算效率,符号位采样方法也被推广到多维。随着器件水平及计算机技术水平的提高,为了证明有重大进展,光用符号位太那个了,搞个灰度等级,就叫它“测度”好了,比如+变成N个灰度,-变成M个灰度,加上0,数据量多多了。不难用理论和事例证明:图象处理精度比符号位法高多了。重大进展。成功的好例子多得不得了,论文是“顶呱呱”的。其数学理论很强眼,也很吓人。
干嘛搞灰度吗,搞小波吗(2000S-2010S),用小波替换掉你的灰度,既省内存又省计算量。不难用理论和事例证明:图象处理精度比“测度”法高多了。重大进展。
搞来搞去,你的小波变化多端,太麻烦了,就有人研究:用“本征量”代替小波(什么是本征量?不好意思,就是等级化灰度!),研究成果表明:图象处理精度不比“小波”法差,但是计算效率高多了。重大进展。
还是太难了点。干脆,还是研究符号位法吧。研究成果表明:符号位图象处理精度不比“小波”、“测度”法差,但是计算效率高多了。重大进展。
下一步研究什么呢?再来一遍吧。
所有这类研究工作只不过是证明:在保持由其频谱可恢复原信号的意义下,你的方法(无论是何种方法)是有效的。
这类研究工作发表的很多,但是,没有普遍意义。为何如此说呢?采样定律的另一层含义是:谱的特性决定了你的采样选择。也就是说,离开了具体的信号谱特性,就没有判决采样率的参考判据。
同样的,无论你如何的搞数据处理,离开具体论题的特点,声称的重大进展是不存在的,因为没有普遍性。
但是,也正因为算法的有效性是密不可分的与具体问题相联系的,从而,你一个属性的论题一个属性的论题的研究下去,每个论题都应该能取得重大进展。
持续稳定地增长了30年的这类热还是在如火如荼的扩大其论题范围,也成为高校培养人才(研究生选题)的主流方式(容易出发表论文)。
还有一个与之平行的是差分法:把导数运算变成差分运算。由于导数的引入使用的是极限法,丢弃了高阶小,从而,原则上可以有无数种方法引出高阶小量,其相应的重大进展也就多如牛毛。但是,没有普遍性。
更为隐蔽的有限元法及其变种,那里的可供恢复或消除的高阶小量的选择更多,从而,重大进展也就更是多如牛毛。但是,没有普遍性。
那么,这类问题的根源在那呢?经典数学(导数,数理方程)只不过是在极限意义下的近似。而其升级换代产品是:现代数学,把原来在在极限意义下的无限小收回来,用有限尺度把它留下来。
因而,在相应的学科理论也用这个办法恢复原来被抛弃的小量,这就是现代科学的特征。以此为基础来研究算法是高手。
而妄图避开现代数学,在经典理论的线性低阶近似基础上玩“自由自在”的引入各类修订量的作法就只能是:总有重大进展,但是,没有普遍性。
为了追求这类重大进展,而又不放弃“自由自在”的选择性,这就是当前发表论文中的主流形式。
也就是说,在科学研究上,越是有“自由自在”的选择性,我们获得普遍性结果的可能性就越小。
哲学上,具体的客观真理是有唯一性的,能够把一大堆“自由自在”的选择性归结为一两条普遍性的选择原则才是真正的重大进展,就象是采样定律及与它相伴的谱方法。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-7-19 04:14
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社