||
[困惑与求证] 线性归一化 Normalization、标准化 Standardization 是否会引起额外的误差?
归一化方法(Normalization Method)、标准化方法(Standardization Method)是“数据”分析、挖掘、预测里常用的预处理。
常见的方法:
(1)线性方法:
线性函数归一化(Min-Max scaling),0均值标准化(Z-score standardization);
(2)非线性:
对数函数、反余切函数、sigmoid、范数法,等。
当被研究的问题是线性系统时,“线性归一化或中心化”自然不会引起数据处理的额外的系统误差。
当被处理的系统是非线性系统时,这些方法(包括线性归一或中心化方法)会不会引起额外的系统误差?
几年前注意到这个问题,感觉对非线性系统可能引起额外的系统误差。可是一直没有时间去静心思考。
特此打听:有没有他人已经研究好的结论?
参考资料:
[1] 2019-04-03,归一化(normalization)、标准化(standardization)以及正则化(regularization)比较
https://blog.csdn.net/Castlehe/article/details/88988267
[2] Feb 2, 2018-02-02, Differences between normalization, standardization and regularization
https://maristie.com/blog/differences-between-normalization-standardization-and-regularization/
[3] 刘锐,2017-10-10,机器学习里的黑色艺术:normalization, standardization, regularization
https://zhuanlan.zhihu.com/p/29974820
[4] 简书,2018-06-25,归一化 (Normalization)、标准化 (Standardization)和中心化/零均值化 (Zero-centered)
https://www.jianshu.com/p/95a8f035c86c
[5] CSDN,2017-10-30,归一化方法总结
https://blog.csdn.net/young951023/article/details/78389445
[6] CSDN,2017-05-07,归一化(normalization)/标准化(standardization) 方法汇总
https://blog.csdn.net/u012969412/article/details/71309381
[7] Hugo Bowne-Anderson,2016-04-27,Preprocessing in Data Science (Part 1): Centering, Scaling, and KNN
相关链接:
[1] 2020-01-15,标幺值和有名值、缩放和中心化;非线性与随机性;额外误差
http://blog.sciencenet.cn/blog-107667-1214367.html
[2] 2018-06-21,慎用“机器学习中的数据预处理:缩放和中心化”
http://idea.cas.cn/viewdoc.action?docid=63578
http://blog.sciencenet.cn/blog-107667-1132083.html
感谢您的指教!
感谢您指正以上任何错误!
感谢您提供更多的相关资料!
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-12-22 23:17
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社