||
[TOC]
q2-sample-classifier
Predicting sample metadata values with q2-sample-classifier
https://docs.qiime2.org/2018.11/tutorials/sample-classifier/
注:最好按本教程顺序学习,想直接学习本章,至少完成本系列《1简介和安装》和《4人体各部位微生物组分析Moving Pictures》。
警告:与任何统计方法一样,此插件中描述的操作需要足够的样本量才能获得有意义的结果。根据经验,至少应提供50个样品(生物学重复而非技术重复)。用作分类器目标的分类元数据列的每个唯一值至少应具有10个样本,用作回归器目标的连续元数据列不应包含许多异常值或严重不均匀的分布。较小的样本量将导致不准确的模型,并可能导致错误。
本教程将演示如何使用q2-sample-classifier
预测样本元数据值。监督学习方法基于样本数据(如微生物群组成)可预测样本属性值(如元数据值)。预测目标可以是离散样本类(分类问题)或连续值(回归问题)。任何其他数据都可用作预测特征,但就q2-sample-classifier
而言,这通常是微生物序列变异(ASV)、可操作分类单位(OTU)或分类组成数据。但是,功能表中包含的任何功能都可以使用——同样适用于非微生物数据,只需将观测值/特征表转换为biom格式,并将特征表数据导入qiime2。
我们将下载并创建几个文件,因此首先创建一个工作目录。
mkdir sample-classifier-tutorial
cd sample-classifier-tutorial
Predicting categorical sample data
监督学习分类器通过学习已知分类训练样本的组成,预测未知分类样本的分类元数据类别。例如,我们可以使用分类器根据粪便微生物组成诊断或预测疾病易感性,或者根据样本中检测到的序列变异、微生物类群或代谢物预测样本类型。在本教程中,我们将使用《4人体各部位微生物组分析Moving Pictures》的数据来训练一个分类器,该分类器预测收集样本的身体部位(Body Sites)。使用以下链接下载功能表和示例元数据:
wget \
-O "moving-pictures-sample-metadata.tsv" \
"https://data.qiime2.org/2018.11/tutorials/moving-pictures/sample_metadata.tsv"
# 下载不了从之前的文件夹中复制
# cp ../qiime2-moving-pictures-tutorial/sample-metadata.tsv moving-pictures-sample-metadata.tsv
wget \
-O "moving-pictures-table.qza" \
"https://data.qiime2.org/2018.11/tutorials/sample-classifier/moving-pictures-table.qza"
接下来,我们将训练和测试一个分类器,它根据样本的微生物组成预测样本来源于哪个身体部位。我们将使用classify-samples
流程来完成此操作,该流程中包括执行一系列步骤:
--p-test-size
参数调整要包含在测试集中的输入样本的分数。estimator
参数选择一系列不同的估计参数;有关单个估计参数的更多详细信息,请参阅scikit-learn
文档(不确定要选择哪个?参考estimator
估算器选择流程图)。k-fold
交叉验证,以优化模型。默认情况下执行5次交叉验证,并且可以使用--p-cv
参数调整该参数。qiime sample-classifier classify-samples \
--i-table moving-pictures-table.qza \
--m-metadata-file moving-pictures-sample-metadata.tsv \
--m-metadata-column BodySite \
--p-optimize-feature-selection \
--p-parameter-tuning \
--p-estimator RandomForestClassifier \
--p-n-estimators 20 \
--output-dir moving-pictures-classifier
输出对象:
输出可视化:
图1.混淆矩阵(confusion matrix) 热图呈现形式显示分类精度结果,即各组预测的结果。可观察预测准确率,和错误的比例和类别。热图下面有对应数值的表。
图2. 不同特征数量与预测准确率的关系。
此流程生成多个输出。首先,让我们检查一下accuracy_results.qzv
,它以混淆矩阵(confusion matrix)的形式显示分类精度结果。这个矩阵表示样本被正确分类的频率和所有其他分类的频率。混淆矩阵以heatmap的形式显示在可视化的顶部,并在其下方显示为包含整体精度的表格(分配给测试样本的正确类别的比例分数)。
问题: 我们可以用分类样本预测哪些其他元数据?查看示例元数据中的元数据列,并尝试其他一些分类列。不是所有的元数据都能被分类器轻易地学习!
此流程还输出了predictions.qza
,其中包括每个测试样本的实际预测值。这是一个SampleData[ClassifierPredictions]
对象,可以作为元数据查看。因此,我们可以查看此元数据表:
qiime metadata tabulate \
--m-input-file moving-pictures-classifier/predictions.qza \
--o-visualization moving-pictures-classifier/predictions.qzv
输出对象:
图3. 每个样品的预测结果
监督学习方法的另一个真正有用的输出是特征选择(feature selection),即它们报告哪些特征(如ASV或物种)最具预测性能。所有特征及其相对重要性(或特征权重或模型系数,取决于使用的学习模型)的列表将在feature_importance.qza
中报告。具有更高重要性分数的特征对于区分类别更有用。特征重要性数值由使用的scikit-learn estimators
估计量直接分配;有关单个估计量及其重要性分数的更多详细信息,请参阅scikit-learn
文档。请注意,一些估计量(尤其是K-nearest neighbors models
)没有报告特征重要性得分,因此如果您使用这样的估计量,这个输出将毫无意义。功能导入属于语义类型FeatureData[Importance]
,可以解释为(功能)元数据,因此我们可以使用metadata tabulate
查看这些功能重要性(和/或与其他功能元数据合并):
qiime metadata tabulate \
--m-input-file moving-pictures-classifier/feature_importance.qza \
--o-visualization moving-pictures-classifier/feature_importance.qzv
查看每个特征的importance
id | importance |
---|---|
02ef9a59d6da8b642271166d3ffd1b52 | 0.0 |
0305a4993ecf2d8ef4149fdfc7592603 | 0.02252683330522206 |
如果启用了--p-optimize-feature-selection
,则此处只输出对象中所选的特征(即,最大化模型精度的最重要特征,如使用递归特征消除确定的特征),并且输出的所有其他结果(如模型精度和预测)都使用最终的优化模型,该模型使用精选的特征集。这不仅可以让我们看到哪些特性最重要(因此被模型使用),而且还可以使用这些信息从我们的特性表中过滤掉没有重要意义的特性,以便在q2-sample-classifier
之外进行其他下游分析:
qiime feature-table filter-features \
--i-table moving-pictures-table.qza \
--m-metadata-file moving-pictures-classifier/feature_importance.qza \
--o-filtered-table moving-pictures-classifier/important-feature-table.qza
此流程还生成一个可视化对象model_summary.qzv
,中包含受监督的学习估计器所使用的模型参数摘要。如果启用了--p-optimize-feature-selection
,可视化还将显示一个递归的特征移除图,该图说明了作为特征计数移除时对模型函数精度的影响如何变化。最终模型自动选择最大精度的特征组合,用于其他输出中显示样本的预测结果。
问题:当使用选项
--p-no-optimize-feature-selection
禁用功能优化时会发生什么?这对分类准确度有何影响?
最后,将训练的分类模型保存起来,以便在sample_estimator.qza
对象中方便地重用!这允许我们预测其他示例的元数据值。例如,假设我们刚收到一批新样本,想要使用我们预先训练过的身体部位分类器来确定这些新样本是什么类型的样本。为了方便起见,在本例中,我们将假设我们有新的样本,并预测用于训练模型具有相同样本的值,但在实践中从不不可以这样做,因为:在用于训练该模型的相同样本上测试监督学习模型将给出不切实际的性能评估! 🦄
基于模型来预测样品
qiime sample-classifier predict-classification \
--i-table moving-pictures-table.qza \
--i-sample-estimator moving-pictures-classifier/sample_estimator.qza \
--o-predictions moving-pictures-classifier/new_predictions.qza
输出对象: moving-pictures-classifier/new_predictions.qza
我们可以使用元数据表查看这些new_predictions.qza
,方法如上所述。或者,如果这些样本不是“未知”样本,我们可以使用这批新样本重新测试模型精度:
qiime sample-classifier confusion-matrix \
--i-predictions moving-pictures-classifier/new_predictions.qza \
--m-truth-file moving-pictures-sample-metadata.tsv \
--m-truth-column BodySite \
--o-visualization moving-pictures-classifier/new_confusion_matrix.qzv
输出可视化: moving-pictures-classifier/new_confusion_matrix.qzv
结果相当酷!这些结果的准确性应该非常高,因为我们忽略了上面关于不可以测试我们的训练数据的警告,这给了您一个很好的主意,为什么您应该遵循上面警告信息呢?😑
注释: 我们在这里训练的模型是一个示例,包含了一项研究中非常少的样本,可能对预测其他未知样本没有帮助。但是,如果你有这些身体部位的样本,那么将它应用于你的数据可能是一个有趣的练习!
问题:试着找出
--p-parameter-tuning
参数的作用。当使用选项--p-no-parameter-tuning
禁用它时会发生什么?这对分类准确度有何影响?问题:在分类样本中,许多不同的分类器可以通过
--p-estimator
参数进行训练。试试其他分类器。这些方法如何比较?不只有随机森林一种方法可选!问题:序列变量不是唯一可用于训练分类器或回归器的特征数据。分类组合是另一种特征类型,可以使用qiime2中提供的教程数据轻松创建。尝试弄清楚这是如何工作的(提示:您需要物种注释,如人体微生物组教程中所述,并按分类层级合并以创建新的特征表)。尝试使用折叠到不同分类级别的特征表。分类特异性(例如,比门级别更具体的物种级别)如何影响分类器性能?
到底是ASV,还是门、纲、目、科、属种的分类结果更好,是尝试出来的,不是想或猜出来的。
问题:
--p-n-estimators
参数调整了集合估计量(如随机森林分类器)构建决策树子集的数量(该参数对非集合方法没有影响),这将在一定程度上提高分类器的精度,但代价是增加了计算时间。使用上面相同的命令尝试使用不同数量的估计量,例如10、50、100、250和500个估计量。这将如何影响预测的总体准确性?花时间建更多的树有意义吗?
Predicting continuous (i.e., numerical) sample data
监督学习回归器通过学习训练样本人为标签的组成,预测未标记样本的连续元数据值。例如,我们可以使用回归器来预测由微生物群落产生的代谢物的丰度,或样本的酸碱度、温度或海拔,作为序列变异、微生物分类群或样本中检测到的代谢物的属性。在本教程中,我们将使用ECAM研究,这是一项关于美国婴儿微生物组发育的纵向队列研究。使用以下链接下载特征表和示例元数据:
下载原数据和特征表
wget \
-O "ecam-metadata.tsv" \
"https://data.qiime2.org/2018.11/tutorials/longitudinal/sample_metadata.tsv"
wget \
-O "ecam-table.qza" \
"https://data.qiime2.org/2018.11/tutorials/longitudinal/ecam_table_maturity.qza"
接下来,我们将使用回归样本流程训练回归器,根据婴儿的微生物群组成预测婴儿的年龄。
qiime sample-classifier regress-samples \
--i-table ecam-table.qza \
--m-metadata-file ecam-metadata.tsv \
--m-metadata-column month \
--p-estimator RandomForestRegressor \
--p-n-estimators 20 \
--output-dir ecam-regressor
输出对象:
此命令生成的输出与分类样本生成的输出基本相同,但有一个主要的区别是准确度中的回归精度结果qzv
以散点图的形式表示,该散点图显示了每个测试样本的预测值与真实值,并附有一条线性回归线,该线与95%置信区间(灰色阴影)的数据相匹配。预测值和真实值之间的真1:1比率用虚线表示,以便进行比较。在此基础上,将模型精度量化为一个表,其中显示了均值、方差、误差和线性回归拟合的r值、p值、估计梯度的标准误差、斜率和截距。
ecam-regressor/model_summary.qzv
: 模型摘要问题:我们可以用回归样本预测哪些其他元数据?查看示例元数据中的元数据列,并尝试其他一些值。并不是所有的元数据都能被回归器轻松学习!
问题:通过回归样本中的
--p-estimator
参数,可以训练出许多不同的回归量。试试其他的回归量。这些方法如何比较?
Nested cross-validation provides predictions for all samples
在上面的示例中,我们将数据集拆分为用于模型训练和测试的训练和测试集。为了验证模型性能,我们必须保留一个模型从未见过的测试集。但如果我们想预测数据集中每个样本的目标值呢?为此我们使用嵌套交叉验证(nested cross validation,NCV)。这在许多不同的情况下都是有用的,例如,对于预测标记错误的样本(在NCV期间分类错误的样本)或评估估计量方差(由于在NCV过程中对多个模型进行了训练 ,我们可以查看其精度的方差)。
在分析流程内部,NCV的工作原理与K-Fold交叉验证非常类似,用于分类样本和回归样本以进行模型优化,但是第二层交叉验证(一个“外循环”)被合并到训练和测试集K次中,这样每个样本都会在一个测试集中完成一次。在“外循环”的每次迭代中,训练集再次被拆分k次(在“内循环”中),以优化参数设置以估计Fold。最终结果:对K个不同的最终模型进行训练,每个样本得到一个预测值,并在每个迭代中平均特征重要性得分。总精度可以通过将这些预测值与真实值进行比较来计算,如下图所示,但对于那些对各倍数精度差异感兴趣的人,平均精度±sd将显示到标准输出。
在q2-sample-classifier
中,对于分类和回归问题都有NCV方法。让我们给两个例子来全面了解一下,然后使用可视化工具来计算和查看聚合的模型精度结果。
分类的验证和可视化
# NCV验证
qiime sample-classifier classify-samples-ncv \
--i-table moving-pictures-table.qza \
--m-metadata-file moving-pictures-sample-metadata.tsv \
--m-metadata-column BodySite \
--p-estimator RandomForestClassifier \
--p-n-estimators 20 \
--o-predictions BodySite-predictions-ncv.qza \
--o-feature-importance BodySite-importance-ncv.qza
# NCV验证结果热图可视化
qiime sample-classifier confusion-matrix \
--i-predictions BodySite-predictions-ncv.qza \
--m-truth-file moving-pictures-sample-metadata.tsv \
--m-truth-column BodySite \
--o-visualization ncv_confusion_matrix.qzv
回归的验证和可视化
qiime sample-classifier regress-samples-ncv \
--i-table ecam-table.qza \
--m-metadata-file ecam-metadata.tsv \
--m-metadata-column month \
--p-estimator RandomForestRegressor \
--p-n-estimators 20 \
--o-predictions ecam-predictions-ncv.qza \
--o-feature-importance ecam-importance-ncv.qza
qiime sample-classifier scatterplot \
--i-predictions ecam-predictions-ncv.qza \
--m-truth-file ecam-metadata.tsv \
--m-truth-column month \
--o-visualization ecam-scatter.qzv
注意: 我们使用混淆矩阵来计算分类器的准确度,使用散点图来计算回归器的准确度👀
因此,NCV方法输出的特征是重要性评分和样本预测,而不是经过训练的估计量(如对上述样本进行分类和回归样本流程)。这是因为(1)k模型实际上用于预测,其中K等于外循环中使用的CV倍数数量,返回和重新使用估计量会变得非常混乱;(2)对NCV感兴趣的用户很可能不希望重新使用模型来预测新样本。
q2-sample-classifier
做的事情Best practices: things you should not do with q2-sample-classifier
正如本教程所演示的,q2-sample-classifier
对于特征选择和元数据预测非常强大。然而,正如电影蜘蛛侠中所説的:能力越大,责任也越大。毫无敬畏之心的用户有犯严重错误的风险,特别是由于过度拟合和数据泄漏。下面列出了一个(不可避免的不完整)用户滥用该插件的方式列表,从而产生误导性的结果。不要做这些事。一般来说,为了避免数据泄漏和过度拟合,存在着更广泛的指南,所以这个列表关注的是这个插件和生物数据分析特有的错误实践。
q2-sample-classifier
中的流程和嵌套交叉验证方法(包括本教程中描述的方法)会执行此操作。但是,在独立使用fit-*
和predict-*
方法时必须小心。Bolyen E, Rideout JR, Dillon MR, Bokulich NA, Abnet C, Al-Ghalith GA, Alexander H, Alm EJ, Arumugam M, Asnicar F, Bai Y, Bisanz JE, Bittinger K, Brejnrod A, Brislawn CJ, Brown CT, Callahan BJ, Caraballo-Rodríguez AM, Chase J, Cope E, Da Silva R, Dorrestein PC, Douglas GM, Durall DM, Duvallet C, Edwardson CF, Ernst M, Estaki M, Fouquier J, Gauglitz JM, Gibson DL, Gonzalez A, Gorlick K, Guo J, Hillmann B, Holmes S, Holste H, Huttenhower C, Huttley G, Janssen S, Jarmusch AK, Jiang L, Kaehler B, Kang KB, Keefe CR, Keim P, Kelley ST, Knights D, Koester I, Kosciolek T, Kreps J, Langille MG, Lee J, Ley R, Liu Y, Loftfield E, Lozupone C, Maher M, Marotz C, Martin BD, McDonald D, McIver LJ, Melnik AV, Metcalf JL, Morgan SC, Morton J, Naimey AT, Navas-Molina JA, Nothias LF, Orchanian SB, Pearson T, Peoples SL, Petras D, Preuss ML, Pruesse E, Rasmussen LB, Rivers A, Robeson, II MS, Rosenthal P, Segata N, Shaffer M, Shiffer A, Sinha R, Song SJ, Spear JR, Swafford AD, Thompson LR, Torres PJ, Trinh P, Tripathi A, Turnbaugh PJ, Ul-Hasan S, van der Hooft JJ, Vargas F, Vázquez-Baeza Y, Vogtmann E, von Hippel M, Walters W, Wan Y, Wang M, Warren J, Weber KC, Williamson CH, Willis AD, Xu ZZ, Zaneveld JR, Zhang Y, Zhu Q, Knight R, Caporaso JG. 2018. QIIME 2: Reproducible, interactive, scalable, and extensible microbiome data science. PeerJ Preprints 6:e27295v2 https://doi.org/10.7287/peerj.preprints.27295v2
刘永鑫,博士。2008年毕业于东北农大微生物学专业。2014年中科院遗传发育所获生物信息学博士学位,2016年博士后出站留所工作,任宏基因组学实验室工程师,目前主要研究方向为宏基因组数据分析和植物微生物组。QIIME 2项目参与人,目前发于论文12篇,SCI收录9篇。2017年7月创办“宏基因组”公众号,目前分享宏基因组、扩增子原创文章500+篇,代表博文有《扩增子图表解读、分析流程和统计绘图三部曲》,关注人数3.5万+,累计阅读500万+。
为鼓励读者交流、快速解决科研困难,我们建立了“宏基因组”专业讨论群,目前己有国内外5000+ 一线科研人员加入。参与讨论,获得专业解答,欢迎分享此文至朋友圈,并扫码加主编好友带你入群,务必备注“姓名-单位-研究方向-职称/年级”。技术问题寻求帮助,首先阅读《如何优雅的提问》学习解决问题思路,仍末解决群内讨论,问题不私聊,帮助同行。
学习扩增子、宏基因组科研思路和分析实战,关注“宏基因组”
点击阅读原文,跳转最新文章目录阅读
https://mp.weixin.qq.com/s/5jQspEvH5_4Xmart22gjMA
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-12-22 17:16
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社