hermitwyc的个人博客分享 http://blog.sciencenet.cn/u/hermitwyc

博文

按标题搜索
第八章提升方法
2019-6-4 22:24
第八章提升方法PPT 第八章提升方法.ppt
982 次阅读|没有评论
标准化与归一化
2019-5-5 15:11
标准化和归一化.doc 标准化 什么是标准化? 标准化是通过特征的平均值和标准差,将特征缩放成一个标准的正态分布,缩放后均值为 0,方差为1。但即使数据不服从正态分布,也可以用此法。特别适用于数据的最大值和最小值未知,或存在孤立点。 标准化的方法: ...
4842 次阅读|没有评论
k近邻法ppt
2019-5-5 15:10
k近邻法 .ppt
1543 次阅读|没有评论
第二章作业 - 郭鸿飞
2019-5-5 15:08
第二章作业.doc
1208 次阅读|没有评论
第一章作业
2019-5-5 15:06
第一章作业-郭鸿飞.doc
1158 次阅读|没有评论
线性回归-最小二乘法和梯度下降法mwy
2019-5-5 14:05
什么是一元线性模型呢?监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自 ...
3555 次阅读|没有评论
第四章朴素贝叶斯法PPT
2019-5-5 13:44
第四章朴素贝叶斯法.ppt
1816 次阅读|没有评论
最小二乘法与梯度下降法的简单实例
2019-5-4 21:36
最小二乘法 最小二乘法是通过最小化误差的平方和,使得拟合对象无限接近目标对象 相比于绝对值的方法,平方和的方法可以得到更短的距离,使得拟合函数更接近于目标函数 一个简单的例子, 有一组数据(1,6),(3,5),(5,7),(6,12),找出一条直线y=ax+b与这几个点最为匹配。 ...
5879 次阅读|没有评论
第一章ppt
2019-5-4 21:32
第一章 统计学习方法概论.pptx
1145 次阅读|没有评论
王雨辰第一章与第二章作业
2019-5-4 21:30
1.1 模型: 伯努利模型:取值为0与1的概率分布 策略: 极大似然估计:认为模型是固定的,只是我们没有找到参数,我们用经验风险最小值去估计参数 贝叶斯估计:对观察到的现象进行总结,取参数的后验分布计算期望 算法: 定义A 为取值为0或1的随机变量,并设A=1的概率是θ,即: P(A=1)=θ,P(A=0) ...
1163 次阅读|没有评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-3-29 18:35

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部