2.Machine Learning with R
  • 在本节中,我们将利用glmnet package,caret和pROC三个R package来实现一个简单的二分类任务。

1) 数据说明

我们这里用到的还是BreastCancer数据集。R的mlbench package提供了该数据集,大家也可以从BreastCancer.csv下载。
  1. 1.
    文件包括11个列,第1列为样本编号,第2-10列为特征,11列为标签(benign为良性,malignant为恶性)
  2. 2.
    数据集有458个良性(benign)样本和241个恶性(malignant)样本
  3. 3.
    数据集有Cl.thickness,Cell.size,Cell.shape,Marg.adhesion,Epith.c.size,Bare.nuclei,Bl.cromatin,Normal.nucleoli,Mitoses9个特征,均为取值在0-10之间的整数。

2) Load R packages

library(glmnet)
library(caret)
library(pROC)
library(mlbench)
  • glmnet: 实现了一系列带正则化的广义线性模型,我们用到的logistic regression对应binomial glm的情形
  • caret: 对多种分类器进行了封装,提供统一的接口,为机器学习中的调参,特征选择等常见的任务提供了便于使用的接口
  • pROC: 实现了一系列用于性能评估的常用函数
  • mlbench: 提供了一些常用的toy dataset,包括我们用到的BreastCancer

3) 数据预处理

  • 我们这里用均值补全缺失值,用Z-score对特征进行scaling
data(BreastCancer) # load data
y <- BreastCancer$Class
x <- BreastCancer[,2:10]
x <- apply(x,2,as.numeric)
feature.mean <- colMeans(x,na.rm = T)
# fill missing value with average value of this feature
x[is.na(x)] <- matrix(rep(feature.mean,each=length(y)), nrow=length(y))[is.na(x)]
# Z score scaling
x <- scale(x,center = TRUE,scale = TRUE)

4) 数据集划分

我们用caret提供的createDataPartition方法划分训练集和测试集:
set.seed(666) # 固定random seed保证结果可重复
# 80% data for training, 20% for performance evaluation
train.indices <- createDataPartition(y,p=0.8,times = 1,list=T)$Resample1
x.train <- x[train.indices,]
x.test <- x[ -train.indices,]
y.train <- y[train.indices]
y.test <- y[ -train.indices]

5) 特征选择

  • 我们这里使用caret实现的递归特征消除(recursive feature elimination)方法
  • 我们先考虑一个基于随机森林的方法:
# twoClassSummary是caret定义的一个函数,用于二分类的性能评估
# rfFuncs是rfFuncs是caret自带的一个S3 list,用于存储基于随机森林做特征选择相关的一些函数
# 我们这里把twoClassSummary用作模型评估,其他保留默认设置
rfFuncs$summary <- twoClassSummary
# caret中可以通过通过rfeControl函数定义一个list(这里的rfectrl),用于控制RFE的行为
# method指的是性能评估的方式,可选参数有"boot", "cv", "LOOCV", "repeatedcv"
# 我们这里使用默认的boot,即通过bootstrapping(有放回的抽样)进行性能评估
# number控制了cv的fold和bootstrapping的重复次数
rfectrl <- rfeControl(functions=rfFuncs,
verbose = TRUE,
method="boot",number=10)
rfe.results <- rfe(x.train,y.train,
sizes=2:9,
rfeControl=rfectrl,
metric = "ROC")
selected.features <- predictors(rfe.results)
selected.features
# "Bare.nuclei" "Cl.thickness" "Cell.size" "Bl.cromatin"
  • 可见RFE最终保留了4个特征
  • 我们还可以用rfe.results$results打印出交叉验证的结果
  • 如果把rfFuncs参数换成lrFuncs,我们就可以进行基于logistic regression的特征选择:
lrFuncs$summary <- twoClassSummary
rfectrl <- rfeControl(functions=lrFuncs,
verbose = TRUE,
method="boot",number=10)
rfe.results <- rfe(x.train,y.train,
sizes=2:9,
rfeControl=rfectrl,
metric = "ROC")
predictors(rfe.results)
# "Bare.nuclei" "Cl.thickness" "Bl.cromatin" "Marg.adhesion" "Mitoses" "Normal.nucleoli"

6) 调参和模型拟合

  • 我们使用caret提供的train函数,以glmnet package实现的带正则化的logistic regression为例通过交叉验证调参
params.grid <- expand.grid(alpha = c(0,0.5,1),lambda = c(0,0.01,0.1,1))
# alpha: relative weighting of L1 and L2 regularization
# lambda: degree of regularization, see glmnet documentation for detail
# train是caret封装的一个用于调参的函数
# 和rfeControl类似,trainControl也返回一个列表,用于控制train函数的行为
# method同样可以是"boot","cv"等,number参数控制了交叉验证的折数和bootstraping的重复次数
tr.ctrl <- trainControl(method="cv",
number = 5,
summaryFunction = twoClassSummary,
classProbs = TRUE)
cv.fitted <- train(x.train[,predictors(rfe.results)],y.train,
method="glmnet",
family="binomial",
metric = "ROC",
tuneGrid = params.grid,
preProcess = NULL,
trControl = tr.ctrl )
  • 我们可以查看交叉验证得到的最好的一组超参数组合
cv.fitted$bestTune
# alpha lambda
# 1 0.01
  • 也可以通过cv.fitted$results属性查看交叉验证的结果等
  • 通过改变train函数的method参数,我们就可以很容易的拟合其他分类器,caret封装了大量可选的分类和回归模型,请大家参考http://topepo.github.io/caret/train-models-by-tag.html

7)模型性能评估

  • 获取测试集上的预测结果
# caret为不同分类器的预测提供了统一的接口
y.test.pred.prob <- predict(cv.fitted,newdata=x.test,type="prob")
# predict是一个generic function,它根据输入对象的类型判断调用哪一个函数
# caret::train返回的是一个"train"类,所以predict调用的实际上是caret实现的predict.train函数
# 接下来我们用pROC::roc函数产生一个"roc"对象
roc.curve <- roc(y.test,y.test.pred.prob[,2])
plot(roc.curve,print.auc=T)
ROC curve
  • pROC实现了对分类性能指标置信区间的估计:
ci.auc(roc.curve,conf.level = 0.95)
# 95% CI: 0.9893-1 (DeLong)
ci.coords(roc.curve,x="best",conf.level = 0.95,ret ="recall",best.method="youden",best.policy="random")
# 95% CI (2000 stratified bootstrap replicates):
# threshold recall.low recall.median recall.high
# best 0.9375 0.9792 1
ci.coords(roc.curve,x="best",conf.level = 0.95,ret ="precision",best.method="youden",best.policy="random")
#95% CI (2000 stratified bootstrap replicates):
# threshold precision.low precision.median precision.high
# best 0.8571 0.9412 1
ci.coords(roc.curve,x="best",conf.level = 0.95,ret ="specificity",best.method="youden",best.policy="random")
#95% CI (2000 stratified bootstrap replicates):
# threshold specificity.low specificity.median specificity.high
# best 0.9121 0.967 1

8) Homework

8.1

我们提供了一个qPCR数据集qPCR_data.csv,第1列为sample id,第2-12列为特征(11个基因的表达量),第13列为样本标签(负例为健康人:NC,正例为肝癌病人:HCC)。请大家用R语言完成以下任务:
  • 数据预处理
    • 用均值或中位数补全空缺值
    • 必要时对数据进行scaling
  • 数据集划分:预留20%数据用于评估模型泛化能力,剩下的用于模型拟合
  • 模型选择和模型拟合
    • 任选一种分类器即可
    • 特征选择: 用RFE或其他方式均可,特征数量不限
    • 调参: 根据所选的分类器对相应的超参数进行搜索
  • 模型评估
    • 计算预留数据集上的AUROC
    • 绘制ROC曲线
  • 请提交代码,必要的文字解释和ROC曲线

8.2

请大家查阅资料,回答以下两个关于随机森林的问题:
  • 随机森林中树的数量是不是一个需要通过交叉验证调整的超参数?为什么?
  • 请问什么是随机森林的out-of-bag (OOB) error?它和bootstrapping有什么关系?

9) More reading

  • 其他机器学习模型相关代码:
    • randomForest.R: Random Forest
    • logistic_regression.R: Logistic Regression
    • svm.R: SVM
    • plot_result.R: Plot your training and testing performance
  • more R packages for machine learning
    • e1071Functions for latent class analysis, short time Fourier transform, fuzzy clustering, support vector machines, shortest path computation, bagged clustering, naive Bayes classifier etc (142479 downloads)
    • rpart Recursive Partitioning and Regression Trees. (135390)
    • igraph A collection of network analysis tools. (122930)
    • nnet Feed-forward Neural Networks and Multinomial Log-Linear Models. (108298)
    • randomForest Breiman and Cutler's random forests for classification and regression. (105375)
    • caret package (short for Classification And REgression Training) is a set of functions that attempt to streamline the process for creating predictive models. (87151)
    • kernlab Kernel-based Machine Learning Lab. (62064)
    • glmnet Lasso and elastic-net regularized generalized linear models. (56948)
    • ROCR Visualizing the performance of scoring classifiers. (51323)
    • gbm Generalized Boosted Regression Models. (44760)
    • party A Laboratory for Recursive Partitioning. (43290)
    • arules Mining Association Rules and Frequent Itemsets. (39654)
    • tree Classification and regression trees. (27882)
    • klaR Classification and visualization. (27828)
    • RWeka R/Weka interface. (26973)
    • ipred Improved Predictors. (22358)
    • lars Least Angle Regression, Lasso and Forward Stagewise. (19691)
    • earth Multivariate Adaptive Regression Spline Models. (15901)
    • CORElearn Classification, regression, feature evaluation and ordinal evaluation. (13856)
    • mboost Model-Based Boosting. (13078)