||
本文是自己的总结,我写作水平一直很菜,也不知道应该怎么写作更好,本文也算是一个阶段性的经验总结。
1、文章不是线性的,而是具有一定的结构
文章各个部分总是存在着呼应。当看到月黑风高,那后面不可避免就是杀人放火或者干一些白天不方便的勾当。而文章中写某个人具有什么性格,后面自然要由这个性格向外延伸一些事情。这让人想起阴阳五行之间的结构模式。各个段落,各个句子之间需要存在着呼应。相思必然有明月,名人落魄才会注意到江南的小桥流水。而水浒传中对贪官的大排场描写,就是为了好汉杀贪官做好准备。而红楼梦中的大排场的描写,就是为了家道中落做好准备。
水浒传、西游记、三国演义等名著都是由各个事件组成的。而事件又互相依赖互相推进的。这要求作者有好的抽象思维能力。能够在细节上把控,又能在高抽象层次上形成逻辑。一篇文章如同一串葡萄。表面上分开,实际上互相联系在一起。
水浒传、西游记、三国演义等有明面的主线。水浒传的核心主线可用三句话:眼见他起高楼;眼见他宴宾客;眼见他楼塌了。眼见他起高楼就是梁山好汉聚义梁山的过程。眼见他宴宾客则是梁山好汉排好座次后。眼见他楼塌了则是梁山好汉死的死,走的死,最后散伙。而水浒传最底层的逻辑则是生存问题。水浒传108好汉不可能自己种粮食。靠打家劫舍,一时可以但不能长久。除非梁山学习方腊,割据一方。然而108好汉注定无法学习方腊。方腊招聘了官员,设置了地方政府。而梁山的108好汉并不是搞政治的料,也缺乏当政府官员的能力。梁山只能接受招安,这就是命运。
西游记的主线非常明确,就是西天取经,而主要人物就是孙悟空。既然是取经,为什么唐僧不是主要人物?我们必须考虑西游记的本质目的。西游记是一本小说,目的就是为了吸引读者,孙悟空自然更能吸引读者。又因为是取经,唐僧必然是另一条次主线。至于说孙悟空最后变得成熟,这也是剧情变化的需要。孙悟空总不能一直是一条莽汉子。想一想,一本很厚的书,主人公总是一个性格,读者也会感觉没趣。
水浒传、西游记、三国演义等名著还有一条暗线——满足说书人的需求、读者的需求。说书人来一段说书,正好时间足够长,但又不是特别长。
2、读论文的总结
读论文,很多人想到的是内容。不过,我总觉得自己读论文能力很差,领会不深入。我想了一个笨法子,看论文摘要。而且要看很多,多次看,对比看;不看内容,只看结构。论文摘要肯定是作者反复修改多遍的结果,值得反复琢磨。必要时,则要看一些时政评论文章。不看内容对错,只分析文章的结构。看得多了,慢慢理解。
一般来说,论文摘要包括了目的、方法、结果、结论。但并不是所有论文都是这样的格式。论文有不同的目的,目的不同,介绍的重点也就不同。有的论文的创新在于方法,为同一类型问题提供了新方法,新方法特别重要。或者有的则是在其它模型上(方法上)有针对性做一些改进,改进部分就显得很重要。而有一些通过数据获得结论,结论非常重要。
下面4篇摘要是从网络上直接获取的,至于好坏,仁者见仁智者见智。
摘要:【目的】重采样是掩盖图像篡改痕迹的重要手段,为了更加精确地实现对重采样缩放参数的检测,验证图像信息的真实性,本文提出一种基于多尺度前馈融合结构的重采样因子估计算法。【方法】在预处理层中,首先使用两个线性高通滤波器得到重采样图像的残差特征,抑制图像内容带来的影响,放大区域内像素之间的关联性,其次利用4个低阶高通滤波器在不同方向上强化像素的梯度特征,该算法的主体结构为卷积神经网络,在网络的不同层级处提取出多尺度重采样分类痕迹,结合注意力机制,形成多尺度残差融合模块(Multiscale Residual Fusion Module, MRFM),补偿卷积过程中重采样信息的丢失,标定特征信息传递过程中的有效性,同时去除信息冗余,加速网络收敛。【结果】实验表明,本文所提算法的网络增益由预处理层和多尺度残差融合模块共同决定,准确性明显高于对比的其他算法,尤其在强噪声的干扰下,本文所提算法具有明显的优势。
摘要:【目的】随着计算机视觉、计算机图形学以及深度学习技术的发展,深度人脸伪造(DeepFake)技术取得了以假乱真的效果,若被非法利用,将给个人、社会和国家带来严重的安全隐患。已有的人脸伪造检测方法大多通过一次训练来推断或预测伪造人脸存在的某种特定“指纹”进行真伪检测,当面对新的伪造类型时,这些方法使用全部数据重新训练网络以保持其检测能力,否则检测效果将急剧下降。然而,重新训练网络需要相对大的代价,并且阻碍了模型实时学习新知识的能力。鉴于此,本文提出一种检测伪造人脸的增量学习方法。【方法】引入动态可扩展的增量学习框架,以保证模型在吸收新知识的同时能保留对旧知识的记忆;使用多分类指导二分类的方式来提高模型的分类能力,最终实现对人脸图像的精确分类。【结果】在两个公开数据集上进行实验。在实验定义的FF++扩充集和ForgeryNet扩充集上,本文方法能同时保持在新旧任务上的人脸伪造检测性能;在实验定义的ForgeryNet扩充集上,现有的人脸伪造检测方法达到了近98.33%的平均ACC(accuracy),本文方法达到了96.16%的平均ACC,但前者使用了超出后者接近3倍的存储和计算资源;将实验定义的ForgeryNet扩充集的后5个任务视为新任务,每个任务下每个类别仅包含100张训练数据,现有方法在该5个任务上达到了近88.72%的平均ACC,本文方法达到了93.83%的平均ACC。【局限】为了保持正负样本的平衡,训练时需要成对的训练样本,这引入了不必要的训练数据,增加了训练负担。【结论】本文提出的人脸伪造检测方法通过增量学习的方式提高了模型对检测不断出现的伪造样本的有效性。实验结果表明,本文方法能以较低的计算代价,达到与现有方法相当的检测能力;在训练数据匮乏的情况下,达到比现有方法更优的伪造检测能力。
摘要:【背景】随着社交网络、电商系统、移动终端设备的快速发展,海量且高维的数据正以前所未有的速度不断地增长和积累。高维数据可以自然地表示为张量。张量的Tucker分解方法是一种常用且经典的高维数据分析机器学习方法,被广泛地应用于推荐系统、图像压缩、计算机视觉等多个领域。然而,传统的张量分解方法大多只能处理静态的数据,并不适用于动态增长的数据。当处理不断增长的数据时,传统方法大多只能低效地重新开始计算,以完成张量分解。【目的】针对增量式数据对传统张量分解方法带来的挑战,本文提出了一种分布式的增量式张量Tucker分解方法DITTD,首次解决了海量高维且动态增长数据上高效的分布式张量Tucker分解问题。【方法】该方法首先根据增量数据相对原始数据的位置关系对其进行分类处理。为了实现分布式节点的负载均衡,本文指出张量的最优划分是NP-难问题,并使用启发式方法以实现尽可能均匀的张量划分。为了避免张量Tucker分解的中间结果爆炸问题,本文提出了一种新颖的增量式张量Tucker分解计算方法。该方法减少了中间结果的计算和网络传输通信量,以提升分布式的增量式张量Tucker分解效率。【结果】最后,本文在真实与合成数据集上进行了大量的实验。实验结果验证了本文方法的运行效率比基准方法提升了至少1个数量级,并具有良好的可扩展性。
摘要:【背景】以抵押资产约束为核心的金融加速器理论是解释宏观经济波动的重要理论之一。本文基于【方法】金融加速器理论【目的】考察金融科技对实体经济运行的稳定器作用及其内在机理,【意义】这对跨周期宏观调控政策的科学设计具有重要的价值。【结果】研究发现:金融科技显著抑制上市企业投资波动,表明金融科技对实体经济运行具有稳定器作用。机制识别发现:金融科技发展通过减少银企间信息不对称,降低抵押品在债务契约中的重要性,从而显著弱化金融加速器效应。异质性检验发现:金融科技对企业投资的稳定作用在非国有企业、房价波动较大地区以及金融监管更严格地区的样本中更显著。【结论】本文研究从金融加速器理论视角揭示了金融科技影响实体经济运行的内在机理,可为跨周期调控以及金融科技政策的设计提供理论依据。
3、最后的完善
对文章总是要提到如下要求:结构完整、逻辑清晰、中心突出、论证正确、论证充分、论证严谨、句子流畅、格式准确、文章完整。每四个字可成为一条检查项,逐条进行检查。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-12-21 21:23
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社