文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

机器学习中必知必会的 3 种特征选取方法!

2024-12-03 13:10

关注

 

[[377236]]

在现实工作场景中,受限制数据和时间,这样的做法其实并不可取,一方面大量数据输入将导致模型训练周期增长,另一方面在当前细分市场中,并非所有场景都有海量数据,寻找海量数据中的重要特征迫在眉睫。

本文我将教你三个选择特征的方法,这是任何想从事数据科学领域的都应该知道。本文的结构如下:

数据集加载和准备

为了方便介绍,我这里使用"load_breast_cancer"数据集,该数据内置于 Scikit-Learn 中。

以下代码段演示如何导入库和加载数据集:

 

  1. import numpy as np 
  2. import pandas as pd 
  3. from sklearn.datasets import load_breast_cancer 
  4. import matplotlib.pyplot as plt 
  5. from matplotlib import rcParams 
  6. rcParams['figure.figsize'] = 14, 7 
  7. rcParams['axes.spines.top'] = False 
  8. rcParams['axes.spines.right'] = False 
  9. Load data 
  10. data = load_breast_cancer() 

调用以下代码,输出结果。

 

  1. df = pd.concat([pd.DataFrame(data.data, columns=data.feature_names),pd.DataFrame(data.target, columns=['y'])], axis=1) 
  2. df.head() 

上述数据中有 30 个特征变量和一个目标变量。所有值都是数值,并且没有缺失的值。在解决缩放问题之前,还需要执行训练、测试拆分。

 

  1. from sklearn.preprocessing import StandardScaler 
  2. from sklearn.model_selection import train_test_split 
  3. X = df.drop('y', axis=1) 
  4. y = df['y'
  5. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=42) 
  6. ss = StandardScaler() 
  7. X_train_scaled = ss.fit_transform(X_train) 
  8. X_test_scaled = ss.transform(X_test) 

方法1:从系数获取特征重要性

检查特征重要性的最简单方法是检查模型的系数。例如,线性回归和逻辑回归都归结为一个方程,其中将系数(重要性)分配给每个输入值。

简单地说,如果分配的系数是一个大(负或正)数字,它会对预测产生一些影响。相反,如果系数为零,则对预测没有任何影响。

逻辑非常简单,让我们来测试一下,逻辑回归是一种合适的算法。拟合模型后,系数将存储在属性中coef_。

 

  1. from sklearn.linear_model import LogisticRegression 
  2.  
  3. model = LogisticRegression() 
  4. model.fit(X_train_scaled, y_train) 
  5. importances = pd.DataFrame(data={ 
  6.     'Attribute': X_train.columns, 
  7.     'Importance': model.coef_[0] 
  8. }) 
  9. importances = importances.sort_values(by='Importance', ascending=False
  10. # 可视化 
  11. plt.bar(x=importances['Attribute'], height=importances['Importance'], color='#087E8B'
  12. plt.title('Feature importances obtained from coefficients'size=20) 
  13. plt.xticks(rotation='vertical'
  14. plt.show() 

下面是相应的可视化效果:

 


该方法最大特点:「简单」、「高效」。系数越大(在正方向和负方向),越影响预测效果。

 

 

方法2:从树模型获取重要性

训练任何树模型后,你都可以访问 feature_importances 属性。这是获取功特征重要性的最快方法之一。

以下代码演示如何导入模型并在训练数据上拟合模型,以及重要性的获取:

 

  1. from xgboost import XGBClassifier 
  2.  
  3. model = XGBClassifier() 
  4. model.fit(X_train_scaled, y_train) 
  5. importances = pd.DataFrame(data={ 
  6.     'Attribute': X_train.columns, 
  7.     'Importance': model.feature_importances_ 
  8. }) 
  9. importances = importances.sort_values(by='Importance', ascending=False
  10. # 可视化 
  11. plt.bar(x=importances['Attribute'], height=importances['Importance'], color='#087E8B'
  12. plt.title('Feature importances obtained from coefficients'size=20) 
  13. plt.xticks(rotation='vertical'
  14. plt.show() 

相应的可视化效果如下所示:

 

方法3:从 PCA 分数获取特征重要性

主成分分析(PCA)是一种出色的降维技术,也可用于确定特征的重要性。

PCA 不会像前两种技术那样直接显示最重要的功能。相反,它将返回 N 个主组件,其中 N 等于原始特征的数量。

 

  1. from sklearn.decomposition import PCA 
  2. pca = PCA().fit(X_train_scaled) 
  3. # 可视化 
  4. plt.plot(pca.explained_variance_ratio_.cumsum(), lw=3, color='#087E8B'
  5. plt.title('Cumulative explained variance by number of principal components'size=20) 
  6. plt.show() 

 

但这是什么意思呢?这意味着你可以使用前五个主要组件解释源数据集中 90%的方差。同样,如果你不知道这意味着什么,继续往下看。

 

  1. loadings = pd.DataFrame( 
  2.     data=pca.components_.T * np.sqrt(pca.explained_variance_),  
  3.     columns=[f'PC{i}' for i in range(1, len(X_train.columns) + 1)], 
  4.     index=X_train.columns 
  5. loadings.head() 

 

第一个主要组成部分至关重要。它只是一个要素,但它解释了数据集中超过 60% 的方差。从上图中可以看到,它与平均半径特征之间的相关系数接近 0.8,这被认为是强正相关。

让我们可视化所有输入要素与第一个主组件之间的相关性。下面是整个代码段(包括可视化):

 

  1. pc1_loadings = loadings.sort_values(by='PC1', ascending=False)[['PC1']] 
  2. pc1_loadings = pc1_loadings.reset_index() 
  3. pc1_loadings.columns = ['Attribute''CorrelationWithPC1'
  4.  
  5. plt.bar(x=pc1_loadings['Attribute'], height=pc1_loadings['CorrelationWithPC1'], color='#087E8B'
  6. plt.title('PCA loading scores (first principal component)'size=20) 
  7. plt.xticks(rotation='vertical'
  8. plt.show() 

 

这就是如何"破解"PCA,使用它作为特征重要性的方法。

结论

上述总结来 3 个机器学习特征重要性的方法,这三个可根据场景灵活运用。如果你对机器学习感兴趣,可以关注我。

来源:机器学习社区内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯