巨能猫的科学酿酒坊分享 http://blog.sciencenet.cn/u/holyforce

博文

Foundations of ML读书笔记(1):机器学习的常见场景(稿)

已有 6665 次阅读 2013-1-26 23:38 |个人分类:理论学习|系统分类:科研笔记| 学习, normal, 微软雅黑, 读书笔记

来自:Foundations of Machine Learning (Mehryar Mohri et al ) Section 1.4

 
机器学习中常见的场景,可以通过以下几点区分:
(1)可用训练数据的特征
(2)训练数据获取方法
(3)训练数据获取顺序
(4)用于评估学习算法的测试数据

于是,一些常见的学习场景包括了:
(1)Supervised Learning
最common的情况,训练数据是一次给定的带有标签的样本。
例子包括分类、回归和ranking。
(2)Unsupervised Learning
训练数据是没有标签的数据。由于没有带标签的样本,所以评估其性能非常困难。
例子包括聚类和降维。
(3)Semi-supervised Learning
训练数据中既有带标签的样本,也有无标签的样本。这对应着现实中一种常见的情况:无标签样本容易获取,但是有标签样本获取较难。直观上,半监督学习是监督学习的一种扩展,例子同样包括了分类、回归和ranking。
(4)Transductive Inference
中文的翻译似乎是“转导推理”/“直推式学习”。
和半监督学习有一些类似,同样是给出一批有标签的样本,和一批没有标签的样本。目的是预测出“这些”没有标签样本的标签。
乍一看,这和supervised learning似乎没有不同。但是注意问题要求预测的,只是给出的那些样本的标签。根据Vapnik的“When solving a problem of interest, do not solve a more general problem as an intermediate step. Try to get the answer that you really need but not a more general one.”如果在transductive inference中,我们得到了一个广泛意义的具有泛化能力的模型(就像supervised learning做的事情),那么就犯了“solve a more general problem”的错误。
同时,transductive inference在预测标签时,并不是构建一个inductive model,这和前面几种情况有明显的不同。
(5)On-line Learning
前面四种场景中,训练样本都是一次给出的,而在on-line learning中,样本的给出过程有很多round。每一个round中,对一个样本给出预测标签,之后根据其真实标签,计算loss。最终的目的是整个过程中,累加的loss最小。
和前面几个场景不同,on-line learning不对分布做任何假设。
【存疑:这里有一句不能理解。In fact, instances and their labels may be chosen adversarially within this scenario.】
(6)Reinforcement Learning(RL)
中文翻译为“强化学习”/“增强学习”。
RL中的训练也分为很多round,在每一个round中,学习器在以下行为中二选一:① 探索(Exploration),从环境中获取一个reward。② 开发(Exploitation),学习已经获取的信息。总的目标是在整个过程中的reward累积最大。
RL源自行为心理学(就是那种摇铃铛和狗狗吃饭之类的)。
【存疑:完全没搞清楚,这到底是什么情况。】
(7)Active Learning
在样本标签获取非常困难的情况下,训练样本“按需给出”,即由学习算法给出需要获知真实标签的样本点。相对于有监督学习,主动学习可以降低对有标签训练样本的需求量。

 


https://blog.sciencenet.cn/blog-795605-656838.html


下一篇:机器学习相关网络资源汇总
收藏 IP: 123.138.101.*| 热度|

2 李伟钢 王满喜

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-27 03:55

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部