不动如山分享 http://blog.sciencenet.cn/u/hustliaohh 脚踏实地,稳步向前

博文

第十讲 Logistic Regression

已有 4125 次阅读 2014-1-15 11:33 |个人分类:科研道路|系统分类:科研笔记

上一讲讲述了线性回归问题,以及线性回归做二类分类问题。从上一讲我们看到,我们得到的是硬分类,即非彼即此,自然,如果我们想知道对其分类结果的可信度,即以多大可信,就是这一讲的Logistic Regression讲述的内容。

1. Logistic Regression Problem

Target function $f(x) = P(+1|x)\in [0; 1]$. Same data as hard binary classification, different target function.




2. Logistic Regression Error

linear scoring function: $s = w^T x$




Likelihood of Logistic Hypothesis:


Cross-Entropy Error:



3. Gradient of Logistic Regression Error



4. Gradient Descent

Linear Approximation:


Gradient Descent:


Logistic Regression Algorithm:


梯度下降算法对学习率$\eta$比较敏感,不同的取值对收敛步骤的影响较大,具体分析请参见Adrew Ng老师的machine learning at Coursera课程 [1].

[1] https://www.coursera.org/course/ml




https://blog.sciencenet.cn/blog-507072-759316.html

上一篇:第九讲 Linear Regression
下一篇:十一讲 Linear Models for Classification
收藏 IP: 122.205.9.*| 热度|

1 陆泽橼

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-11-24 14:45

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部