博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
特征选取1-from sklearn.feature_selection import SelectKBest
阅读量:5064 次
发布时间:2019-06-12

本文共 2887 字,大约阅读时间需要 9 分钟。

 

(博主亲自录制视频)

作者:知乎用户
链接:https://www.zhihu.com/question/28641663/answer/41653367
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
特征选择是特征工程中的重要问题(另一个重要的问题是特征提取),坊间常说:数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已。由此可见,特征工程尤其是特征选择在机器学习中占有相当重要的地位。

通常而言,特征选择是指选择获得相应模型和算法最好性能的特征集,工程上常用的方法有以下:

1. 计算每一个特征与响应变量的相关性:工程上常用的手段有计算皮尔逊系数和互信息系数,皮尔逊系数只能衡量线性相关性而互信息系数能够很好地度量各种相关性,但是计算相对复杂一些,好在很多toolkit里边都包含了这个工具(如sklearn的MINE),得到相关性之后就可以排序选择特征了;

2. 构建单个特征的模型,通过模型的准确性为特征排序,借此来选择特征,另外,记得JMLR'03上有一篇论文介绍了一种基于决策树的特征选择方法,本质上是等价的。当选择到了目标特征之后,再用来训练最终的模型;

3. 通过L1正则项来选择特征:L1正则方法具有稀疏解的特性,因此天然具备特征选择的特性,但是要注意,L1没有选到的特征不代表不重要,原因是两个具有高相关性的特征可能只保留了一个,如果要确定哪个特征重要应再通过L2正则方法交叉检验;

4. 训练能够对特征打分的预选模型:RandomForest和Logistic Regression等都能对模型的特征打分,通过打分获得相关性后再训练最终模型;

5. 通过特征组合后再来选择特征:如对用户id和用户特征最组合来获得较大的特征集再来选择特征,这种做法在推荐系统和广告系统中比较常见,这也是所谓亿级甚至十亿级特征的主要来源,原因是用户数据比较稀疏,组合特征能够同时兼顾全局模型和个性化模型,这个问题有机会可以展开讲。

6. 通过深度学习来进行特征选择:目前这种手段正在随着深度学习的流行而成为一种手段,尤其是在计算机视觉领域,原因是深度学习具有自动学习特征的能力,这也是深度学习又叫
unsupervised feature learning的原因。从深度学习模型中选择某一神经层的特征后就可以用来进行最终目标模型的训练了。

整体上来说,特征选择是一个既有学术价值又有工程价值的问题,目前在研究领域也比较热,值得所有做机器学习的朋友重视。

 

http://blog.csdn.net/ae5555/article/details/49534263

去除方差小的特征

设置一个方差阈值,没有达到这个方差阈值的特征都会被丢弃。 
VarianceThreshold,算法输入只要求特征(X),不需要输入结果(Y)。

from sklearn.feature_selection import VarianceThreshold 
X=[[feature1,feature2,…],…] 
sel=VarianceThreshold(threshold=xx) 
print(sel.fit_transform(X))

单变量特征选取

单变量特征提取的原理是分别计算每个特征的某个统计指标,根据该指标来选取特征。 
SelectKBest、SelectPercentile,前者选择排名前k个的特征,后者选择排名在前k%的特征。选择的统计指标需要指定,对于regression问题,使用f_regression指标;对于classification问题,可以使用chi2或者f_classif指标。

from sklearn.feature_selection import SelectKBest,chi2 
X_new=SelectKBest(chi2,k=2).fit_transform(test_X,test_Y)

  1. False Positive Rate,假阳性率
  2. chi2,卡方统计量,X中特征取值必须非负。卡方检验用来测度随机变量之间的依赖关系。通过卡方检验得到的特征之间是最可能独立的随机变量,因此这些特征的区分度很高。
循环特征选取

不单独地检验某个特征的价值,而是检验特征集的价值。对于一个数量为n的特征集合,子集的个数为2的n次方减一。通过指定一个学习算法,通过算法计算所有子集的error,选择error最小的子集作为选取的特征。

RFE

 


  1. 对初始特征集合中每个特征赋予一个初始权重。
  2. 训练,将权重最小的特征移除。
  3. 不断迭代,直到特征集合的数目达到预定值。 

 

from sklearn.svm import SVC 

from sklearn.feature_selection import RFE 

//X为样本集合,每个样本为一个数组,数组元素为各个特征值,Y样本的评分 

svc=SVC(kernel=”linear”,C=1) 

rfe=RFE(estimator=svc,n_features_to_select=5,step=1) 

X_new=rfe.fit_transform(X,Y)
RFECV

在RFE训练时,增加交叉验证。

L1-base

在线性回归模型中,每一个特征代表一个w,若得到的w系数等于或接近0,则说明这些特征不重要。 
LinearSVC 
参数C控制特征系数稀疏度,C的值越小,选择的特征数越少。

from sklearn.svm import LinearSVC 
X_new=LinearSVC(C=0.01,penalty=”l1”,dual=False).fit_transform(x,y)

决策树特征选取

通过决策树可以计算特征的重要性,抛弃不太重要的特性。

from sklearn.ensemble import ExtraTreesClassifier 
clf=ExtraTreesClassifier() 
X_new=clf.fit(x,y).transform(x) 
//各个特征重要性 
print(clf.feature_importances)

sklearn分类数据

sklearn.datasets.make_classification用来随机产生一个多分类问题。 
n_features=n_informative+n_redundant+n_repeated。 
n_clusters_per_class 每个分类的集群数

import sklearn.datasets 
(x,y)=make_classification(n_samples=, 
n_features=, 
n_informative=, 
n_redundant=, 
n_repeated=, 
n_classes=, 
random_state=, 
shuffle=False 
)

 

 

转载于:https://www.cnblogs.com/webRobot/p/8336759.html

你可能感兴趣的文章
基于VHDL利用PS2键盘控制的电子密码锁设计
查看>>
Haproxy负载均衡
查看>>
算法导论第二章
查看>>
OA办公系统的发展离不开企业大胆尝试使用
查看>>
Cryptography -- 密码学
查看>>
测试的艺术:测试用例的设计
查看>>
对 Java 集合的巧妙利用
查看>>
listener:监听器(加载框架配置文件/执行任务调度/session的优化)
查看>>
MySql like 查询 变向写法(不用like 完成like查询)
查看>>
tensorflow--卷积神经网络
查看>>
python 字符串和容器总结
查看>>
HDU ACM 1078 FatMouse and Cheese 记忆化+DFS
查看>>
【Android工具类】Activity管理工具类AppManager
查看>>
Asp.net视频摘要
查看>>
JNI 学习笔记
查看>>
函数指针声明时的形参列表可以没有
查看>>
gdb 的使用方法
查看>>
java 变量分类
查看>>
Chrome 静默打印及其它启动参数
查看>>
[转]Jquery中AJAX错误信息调试参考
查看>>