larryxia的个人博客分享 http://blog.sciencenet.cn/u/larryxia

博文

不能脱俗

已有 1689 次阅读 2020-10-20 07:55 |系统分类:海外观察

不能脱俗

许秋雨,20201019

 

已经有二十多年没有听过从前同行们的讲座了。前一段时间,某学校的维纳研究中心做了多次很好的广告,特别是在讲座前半个小时还发电邮提醒。由于考肺疫情的原因,现在都是网络观看,就没有了距离的约束。讲座者是二十几年前就非常熟知的资深知名数学教授。所以今天还真听了讲座。

 

老先生在二十几年前,早在经典的调和分析领域就做得名声在外,加上又赶上小波的热度,在信号处理领域也广为人知。记得当时图像压缩很热,老先生也插了一脚,号称为可以把256256256(8比特)个灰度级的图片压缩一百倍。当时人们认为他用的是VQ法,但是在训练VQ的码时,把压缩的图片也放进去了。用现在流行的语言来说,就是非双盲。因为图像压缩,指头功夫很重要,不可能会突然出现一个理论能改进过去所有方法数倍之多。所以,后来老先生的图片压缩也就不了了之了。

 

今天老先生讲的竟然与百来年以前的复分析有关。学过复分析的大侠都知道,一个在单位圆上的全纯函数可以分解为内函数和外函数的乘积。而内函数又有一个名字叫不拉西切刻积。老先生讲了一大堆复分析上的经典结果,又强连上了小波套路,叫成了水滴小波(droplets)。其实对学过数字信号处理的大侠来说,不拉西切刻积是最小相位信号,且在单位圆上也模一。大家知道,最小相位信号有很好的性质,可以逆来顺受。最后老先生话风一转,说在不拉西切刻积里的每一项对应一层神经网,就这样把它硬生生地冠上了深度神经网。这次老先生应该不会再用它来训练VQ码了,看其态势,已经飚上了黑洞来的鸟信号(chirps)。

 

现在全世界都在热追神经网,这次似乎数学家也不例外,特别对从前开过公司的数学家们。不知道白宫和五角楼有没有开学习班全体学习,估计要学也只能是以前学的,因为这几天一定没时间,都在忙着选秀呢。




http://blog.sciencenet.cn/blog-3395313-1255006.html

上一篇:秋天晩霞
下一篇:景满色满

1 尤明庆

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2020-12-5 05:18

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部