科技导报分享 http://blog.sciencenet.cn/u/kejidaobao

博文

Batch-attention:深度学习中一种新的协调过拟合与欠拟合的方法

已有 640 次阅读 2023-8-25 09:21 |系统分类:论文交流

Batch-attention:深度学习中一种新的协调过拟合与欠拟合的方法

胡涵清,李政勋,吴竹南

北京信息科技大学经济管理学院,北京100192

摘要 在深度学习网络训练的过程中,现有大多数提升模型效果的方法都集中在网络上,要提升模型的效果与准确率,就须关注数据的特性。提出了一种新的深度学习模型训练框架Batch-attention,从数据层面出发,改变了原有训练方式,经实验证明可以协调深度学习模型的过拟合与欠拟合。通过在Cifar10与Cifar100数据集上分别采用Resnet34、Transformer和effi⁃cientnet-b7进行实验对比,证明了采用Batch-attention的模型相对于基准模型,在测试集上的准确率与F1-score均有一定提升。在测试实验中,进一步分析了Batch-attention的作用机制。

关键词 深度学习;过拟合;注意力机制;有监督学习;机器学习

(责任编辑  王志敏)

http://www.kjdb.org/CN/Y2023/V41/I13/100



https://blog.sciencenet.cn/blog-336909-1400246.html

上一篇:形状记忆合金在非含能分离连接装置中的应用进展
下一篇:基于行业的城市安全生产风险结构及差异性
收藏 IP: 219.142.112.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-6-26 10:40

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部