a6657266的个人博客分享 http://blog.sciencenet.cn/u/a6657266

博文

machine learning学习小感

已有 4893 次阅读 2013-7-17 16:55 |系统分类:科研笔记| machine

在线看了Andrew Ng关于machine learning 以及feature learning的课程,收获颇丰,很多之前不是很清楚的概念也都了解了。​​​​

大部分都需要公式详解,为了方便,我只在这里分条叙上文字性内容。

感觉machine learning 就是不断的再寻求方法使得cost function 最小。

feature scale 非常重要,否则会影响gradient descent的速度。

learning rate可以初始化成10个值,0.001,0.003,0.009,...找到使cost function下降最快的

如果矩阵不可逆,也叫singular矩阵

用newton方法找到最佳参数方法较快,但是计算量较大,如果训练样本数在1000以下,就可以使用,而且效果比gradient descent好

regularization是为了抑制overfitting

stochastic gradient descent 较为常用,因为他每次循环只需要计算一个example,不用计算所有example的和



https://blog.sciencenet.cn/blog-571755-708937.html

上一篇:deep learning学习推荐网址
下一篇:IDL+llnux坑坑
收藏 IP: 210.72.26.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-12-21 23:58

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部