||
一般来说,研究生和本科生阶段是有本质区别的。当然,一年期的那种除外。但对于多数本科生来说,会有定式思维,以为按本科生的学习模式就能顺利完成研究生的学业。其实这里存在一个学习方式的误区,即基础误区。
没经过科研训练的本科生,会想当然地以为必须先把基础知识掌握和巩固好,才好开始切入课题的研究,否则没有把握找到突破口。于是习惯性选择的提升自我能力的方式,是把相关专业的基础书认真看反复看,最好把每本书章节后面的习题也都刷一遍。
这有其好的一面,基础稳固了,在思维逻辑、知识体系上会很严密。然而,对研究生来说,从时商的角度来考虑, 这并不一定是优化且合理的方式。
因为,基础是打不完的。以我相对熟悉的人工智能方向为例,如果要先打基础,学生应该要选择一些经典的教科书来学习,比如早期大家都看的、Duda等的《模式分类》(Pattern Classification) [1],曾经被视为红宝书的、很多人喜欢做书后习题的Bishop的《 模式识别与机器学习》(Pattern Recognition and Machine Learning)[2],再比如在亚马逊平台机器学习销售量第一的、三位斯坦福教授合作写的、统计味十足因而对机器学习有不同视角的《统计学习基础》(第二版)(The Elements of Statistical Learning, 2nd )[3],还有近年来国内绝对畅销的、知识点更全但更精炼的周志华老师的《机器学习》(因封面和样例常用西瓜,俗称西瓜书)[4]。而最近这几年特别受大家追捧的、提出生成对抗网的Ian Goodfellow与2019年图灵奖得主Yoshua Benjio等合写的《深度学习》[5]也似乎也是通向人工智能道路上的“圣经”之一。
如果觉得自己统计和数学基础好,还可以看看Devroye等写的、通篇从泛化界的角度来理解人工智能核心技术的《模式识别的概率理论》(A Probabilistic Theory of Pattern Recognition)[6]。或者读读从博弈论角度切入、不那么强调数据分布假设来诠释人工智能的,Nicolo等写的《预测,学习和博弈》(Prediction, Learning and Games)[7]。而要想了解小样本下的推理机制,也可能还得读读Daphone Koller用她不太纯正的数学表达、还略有些啰嗦写出来的上千页的《概率图模型》(Probabilistic Graphical Model)[8]。
另外,2019年5月初,徐匡迪院士在上海的院士沙龙活动中指出,人工智能不能离开数学[9]。所以,数学方面的一些经典教材也值得读一下。比如现代人工智能中常将数据看成是处在非欧几何空间(注:不精确来说,就是长宽高相互不垂直的弯曲空间),那么总得读两至三本微分几何方面的书吧。如数学大师陈省身与陈维桓合写的《微分几何讲义》[10]、J. R. 曼克勒斯写的《流形上的分析》(Analysis on Manifolds)[11]、或者陈维桓写的进阶版的、多数人可能只能看懂目录的 《微分流形初步》[12]。而算法优化也是推动人工智能前进的必要手段,那斯坦福大学大神Stephen Boyd教授写的《凸优化》(Convex Optimization)[13]也得要熟悉。还有很多值得读的书,就不再赘述了。其它学科和方向我想也差不多,经典的必然随手能列一大箩筐。
但是,如果算下研究生的在校学习时间(硕士三年/博士三年/硕博连读五年),有可能读完这些书时,多数学生快临近毕业了,还是对书本身的内容一知半解,更不用说能形成对前沿的把握了。如果本科基础不好的话,有可能书读不到半程,对科研的兴趣就已经被浇灭了。
那怎么读更适合研究生尤其是三年期甚至更短学制的研究生的定位呢?不妨换个角度,重新定义下基础。个人以为, 基础应该先优先定位在对具体研究方向的前沿把握上,而非对相对笼统的整个领域研究方向的宽泛了解。尤其是在现今研究方向越来越细分、专门化的前提下,并非全部书籍中的知识在研究生期间都会用到。
概言之,是宜以点带面,而不要以面带点。从研究生培养的角度来看,可能这样在时商上更为有效,不会浪费时间,也有利于在研究生期间学有所成。
如何找点呢?最简单的办法是从近期发表的、相关专业的学术期刊或会议论文着手。比如人工智能领域中著名期刊IEEE Transactions on Pattern Analysis and Machine Intelligence和IEEE Transactions on Neural Networks and Learning Systems,以及一些顶会如NeurIPS、 ICML、IJCAI、AAAI等。通常来说,这些期刊和会议上的文章在平均意义上是上档次、有强的创新的,能帮助大家更好了解最前沿的科研水平达到了什么程度。 值得注意的是,现在人工智能处在第三波热潮中,即使顶级会议,论文还是太多,如AAAI2019一次的投稿量都接近上万篇,一篇一篇翻也许很难找到真正想要看的材料。所以,明确选题很关键。
假定选题已经选好,那么可以通过关键词和搜索引擎从好的期刊和会议上寻找相关的论文,尤其是引用次数高的或新鲜出炉的论文更要多加关注。与书籍相比,论文的页数少得多。一篇期刊论文一般在15页以下,会议则更少,6至10页不等。而且好的文章都是浓缩的精华,句句珠玑。
从阅读摘要开始进行初筛,到觉得有内容的进行泛读和进一步的精读,一篇或多篇密切相关的文章读下来,比看书显然更省时间,且能快速了解这一领域的前沿,包括该领域同行在这一方向上已经达到的水平、在此方向上公用的评测手段,以及存在的不足。细读论文,还能知道同行在提出创新工作时是如何针对现在不足来提出改进方法的,如何行文来有理有据的支持其观点或方法的有效性的。有的时候,作者也会分享代码以增加引用率。通过运行这些代码和调试代码中的参数,读者能很快了解文章方法的优势和不足。除此以外,也比较容易针对性的以点带面,即浏览作者撰写的综述部分和提供的参考文献,从文献中形成树状搜索来获得这一领域所需的背景知识、基础、不同视角的观点方法等, 如果在阅读中,发现自己在公式和理论理解上存在障碍或偏差时,再按图索骥的去更基础的教科书或工具书上找答案。通过这种学习模式,最终形成对该研究方向的总体印象,一个点扩张成一个面甚至是一个能支撑这个点的金字塔知识结构,这个塔的底是扎实且具有一定针对性的。我记得我当年考硕士研究生的时候,也采用了这一策略。因为大学毕业后就工作了,有五年时间完全没碰过专业书,以至于数学基本都忘光了,所以为了能通过考研,只好把树状搜索的深度做深一点,当时把初等代数的内容都重新复习了一遍。
回到正题,这样形成的“基础”不仅能让学生对其研究方向有好的前瞻性,也能对方向的诸多问题快速形成深刻认识,在相对短时间内找到突破口。
另外,除了研究方向的针对性强以外,与从书籍来打扎实的基础相比,也许还有一个额外的好处,就是不太容易被教科书中的条条框框束缚。有句俗话说得好,知识越多,思考越难。人类的创新往往都是从犯错开始的,甚至可以等同于是一种犯错。如果过于遵守或相信教科书中的规范准则,其实就容易限制住自己的想象力或想象空间了。所以,我们需要或多或少地避开基础误区。
那如何能形成好的想象力呢?下回分解!
张军平
2019年10月10日写于火车上
参考文献:
1. Richard O. Duda, Peter E. Hart, David G. Stork. Pattern Classification. Wiley-Interscience, 2000.
2. Christopher Bishop. Pattern Recognition and Machine Learning. Springer, 2007.
3. Trevor Hastie, Robert Tibshirani,Jerome Friedman. The Elements of Statistical Learning: Data mining, Inference and Prediction, 2nd edition, Springer, 2009.
4. 周志华. 机器学习. 清华大学出版社,2016.
5. Ian Goodfellow, Yoshua Benjio, Aaron Courville. Deep Learning. The MIT Press, 2016
6. Luc Devroye, Laszlo Györfi, Gabor Lugosi. A Probabilistic Theory of Pattern Recognition. Springer, 1997
7. Nicolo Cesa-Bianchi, Gabor Lugosi. Prediction, Learning and Games, Cambridge University Press, 2006.
8. Daphne Koller, Nir Friedman. Probabilistic Graphical Models: Principal and Techniques, The MIT Press, 2009.
9. 徐匡迪. 中国有多少数学家投入到人工智能的基础算法研究中?上海院士沙龙,2019年5月1日
10. 陈省身,陈维桓. 微分几何讲义, 北京大学出版社,2001.
11. James R. Munkres. Analysis on Manifolds, Westview Press, 1997.
12. 陈维桓. 微分流形初步,高等教育出版社,2001.
13. Stephen Boyd, Lieven Vandenberghe. Convex Optimization. Cambridge University Press, 2004.
延续阅读:
张军平,复旦大学计算机科学技术学院,教授、博士生导师,中国自动化学会混合智能专委会副主任。主要研究方向包括人工智能、机器学习、图像处理、生物认证及智能交通。至今发表论文近100篇,其中IEEE Transactions系列20篇,包括IEEE TPAMI, TNNLS, ToC, TITS, TAC等。学术谷歌引用近3400次,ESI高被引一篇,H指数29.
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-12-23 13:24
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社