|
先从大的方面讲吧。确定性的世界是从牛顿物理再到爱恩斯坦物理,而且基本上被爱恩斯坦解决了。这个世界现到了随机的量子世界,从而出现了量子计算机,量子通信,量子雷达,量子针灸等等,各种新新理论会层出不穷。
因为我的专业是信号处理以及通信理论,我下面就讲讲与我有关的几个题目。
A) 香农信息论
首先看一下香农信息论。我个人觉得香农信息论就是为了数字通信的理论,它意在解决信号数字传输的两个重要问题,即信源与信道的问题。
关于信源,就是信源的压缩,因为实际的信号是有容余的,它在传输前是可以压缩的。香农理论给出了一个压缩后平均码长的下界。因为信源编码与信号本身有关,而当信号本身给定后,也是确定的,好的信源编码基本是确定性的,所以容易被人们攻克且定型。这也就是为啥,大家用到的信源压缩就是那几个早已定型的,如文献压缩zip,图像压缩JPEG或JPEG2000,视频压缩MPEG等等,其研究领域也早已成熟早已没很多人在做研究工作了。
另一个问题就是信道问题,给定一个信道,最大传输率是什么。香农理论给出了一个上界,即信道容量。因为信道噪声是随机的,香农理论说了,达到这个信道容量可以用随机编码。尽管过去数十年里出现了各种信道编码,数字通信里每次大的进展都与信道编码有关(当然应用有一定的迟后),如60年代的RS码,70和80年代的TCM,90和00年代的Turbo/LDPC码等,尽管过去多次有人号称其编码已经接近香农界了,大家在这个领域的研究从未停过。因为信道编码真对的是随机噪声,我相信,以后还会有新的流行码的出现,只要对象或方法是随机的就完不了。
B) 稀疏快速付里叶变换
六十年代的快速付里叶变换(FFT)的出现是数字信号处理真正的开始,当时的雷达SAR成像就是两维的FFT运算,当时FFT起了决定性作用。你也许会问,数字光图像处理是什么时候开始的,第一张数字光图像出现在1957年,第一张流行于图像处理界(特别是图像压缩界)的数字光图像出现在1973年的南加州大学EE系的图像所,它就是1972年11月份《花花公子》里Lenna的头像,叫Lena。
当然FFT出现后,有了多种改进,但是多多少少都差别不太大。直到没几年前,MIT有人提出稀疏FFT(SFFT),其算法有了本质的变化。条件是如果你感兴趣的频率个数只是信号长度的非常小的一分子。大家都知道,这个条件在实际应用中基本上是满足的。这时,SFFT说,如果用SFFT,有很大概率的可能性无需做原信号长度N的FFT,而只需很小长度(只与频率个数K有关)的FFT。
大家都知道,如果K个频率在N个频点中间隔都相同均分的话,原N点长的信号可以下采样N/K倍,只留K点信号即可,从而K个频率可以由下釆样后的K点FFT得到。问题是这K个频率不一定是同间隔均分在N点上,这时怎么办呢?思想来了,如果在频域里做一个随机置换,这K个频率就会在频域里均匀分布了,这时有很大的可能性,每两个频率间的距离可以到一定的程度,这时就又可以做下釆样了(尽管不一定能下采样N/K倍),从而又可以做下釆样后的FFT。下面就是,怎么做频域里的随机置换,其实,频域里的某些“随机”置换可以从时域里简单地得出,这正是SFFT里的一部分。这样,SFFT就可以以很大的可能性以原信号长度的一小小分数长度的FFT来得到感兴趣的稀疏频率。这样,从确定性的FFT就到了一个随机性的,“打赌式”的FFT了。
C) 压缩感知
由信号的部分信息恢复信号的问题自从有了信号处理后就有。这个问题非常广泛,但是在数字信号处理中典型的有,信号的内插,外推,由相位或幅度恢复信号等。其中最典型的就是内插,即釆样问题。如果想要无损恢复原信号,那釆样率就必须不小于Nyquist频率,即信号频带的两倍。如果信号频带非常大,采样频率也需非常大,釆样点也需要非常多,这时就有可能做不到或者浪费。2006年Donoho提出了压缩感知(CS),说了,如果信号的频率只有稀疏的几个,用不着这么多釆样点,如果这些样本点是某种随机投影(如随机釆样)得到的,只需要很少这样的样本点,有很大可能性得到要决定的稀疏频率。当然,尽管这时采样点数是可以大大地减少,但是其“釆样率”是否能低于Nyquist频率,还有待商榷[1]。其实上面讲的稀疏FFT跟CS的思想差不多。由部分信息决定信号的问题一般都是不定问题,所以,与其说不定还不如说有可能,不如打个赌,这样问题就到了随机的世界。
确定性的问题也许一下就被聪慧的人攻克了(即使不一定是很快,如费马大定理的证明),只有当问题随机化了,才可能有了人们不断地尝试不断地有希望。
[1]“全世界都在炒概念”, 科学网博文,2018年8月24日。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-12-23 02:49
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社