为什么特征重要性分析很重要?如果有一个包含数十个甚至数百个特征的数据集,每个特征都可能对你的机器学习模型的性能有所贡献。但是并不是所有的特征都是一样的。有些可能是冗余的或不相关的,这会增加建模的复杂性并可能导致过拟合。
特征重要性分析可以识别并关注最具信息量的特征,从而带来以下几个优势:1. 提供洞察力:通过分析特征的重要性,我们能够深入了解数据中哪些特征对结果产生了最大的影响,从而帮助我们更好地理解数据的本质。2. 优化模型:通过识别关键特征,我们可以优化模型的性能,减少不必要的计算和存储开销,提高模型的训练和预测效率。3. 特征选择:特征重要性分析可以帮助我们选择最具有预测能力的特征,从而提高模型的准确性和泛化能力。4. 解释模型:特征重要性分析还可以帮助我们解释模型的预测结果,揭示模型背后的规律和因果关系,增强模型的可解释性
改进的模型性能减少过度拟合更快的训练和推理增强的可解释性下面我们深入了解在python中的一些特性重要性分析的方法。
特征重要性分析方法1、排列重要性 permutationimportance这种方法会对每个特征的值进行随机排列,然后监测模型性能下降的程度。如果下降幅度更大,那就意味着该特征更重要
from sklearn.datasets import load_breast_cancer from sklearn.ensemble import randomforestclassifier from sklearn.inspection import permutation_importance from sklearn.model_selection import train_test_split import matplotlib.pyplot as plt cancer = load_breast_cancer() x_train, x_test, y_train, y_test = train_test_split(cancer.data, cancer.target, random_state=1) rf = randomforestclassifier(n_estimators=100, random_state=1) rf.fit(x_train, y_train) baseline = rf.score(x_test, y_test) result = permutation_importance(rf, x_test, y_test, n_repeats=10, random_state=1, scoring='accuracy') importances = result.importances_mean # visualize permutation importances plt.bar(range(len(importances)), importances) plt.xlabel('feature index') plt.ylabel('permutation importance') plt.show()
2、内置特征重要性(coef_或feature_importances_)一些模型,如线性回归和随机森林,可以直接输出特征重要性分数。这些显示了每个特征对最终预测的贡献。
from sklearn.datasets import load_breast_cancer from sklearn.ensemble import randomforestclassifier x, y = load_breast_cancer(return_x_y=true) rf = randomforestclassifier(n_estimators=100, random_state=1) rf.fit(x, y) importances = rf.feature_importances_ # plot importances plt.bar(range(x.shape[1]), importances) plt.xlabel('feature index') plt.ylabel('feature importance') plt.show()
3、leave-one-out迭代地每次删除一个特征并评估准确性。
from sklearn.datasets import load_breast_cancer from sklearn.model_selection import train_test_split from sklearn.ensemble import randomforestclassifier from sklearn.metrics import accuracy_score import matplotlib.pyplot as plt import numpy as np # load sample data x, y = load_breast_cancer(return_x_y=true) # split data into train and test sets x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.3, random_state=1) # train a random forest model rf = randomforestclassifier(n_estimators=100, random_state=1) rf.fit(x_train, y_train) # get baseline accuracy on test data base_acc = accuracy_score(y_test, rf.predict(x_test)) # initialize empty list to store importances importances = [] # iterate over all columns and remove one at a time for i in range(x_train.shape[1]):x_temp = np.delete(x_train, i, axis=1)rf.fit(x_temp, y_train)acc = accuracy_score(y_test, rf.predict(np.delete(x_test, i, axis=1)))importances.append(base_acc - acc) # plot importance scores plt.bar(range(len(importances)), importances) plt.show()
4、相关性分析需要重新写的内容是:计算特征与目标变量之间的相关性,相关性越高的特征越重要
import pandas as pd from sklearn.datasets import load_breast_cancer x, y = load_breast_cancer(return_x_y=true) df = pd.dataframe(x, columns=range(30)) df['y'] = y correlations = df.corrwith(df.y).abs() correlations.sort_values(ascending=false, inplace=true) correlations.plot.bar()
5、递归特征消除 recursive feature elimination递归地删除特征并查看它如何影响模型性能。删除时会导致更大下降的特征更重要。
from sklearn.ensemble import randomforestclassifier from sklearn.feature_selection import rfe import pandas as pd from sklearn.datasets import load_breast_cancer import matplotlib.pyplot as plt x, y = load_breast_cancer(return_x_y=true) df = pd.dataframe(x, columns=range(30)) df['y'] = y rf = randomforestclassifier() rfe = rfe(rf, n_features_to_select=10) rfe.fit(x, y) print(rfe.ranking_)
输出为[6 4 11 12 7 11 18 21 8 16 10 3 15 14 19 17 20 13 11 11 12 9 11 5 11]
6、xgboost特性重要性计算一个特征在拆分数据时的次数,这个特征在所有树中都被使用。更多的拆分意味着更重要
import xgboost as xgb import pandas as pd from sklearn.datasets import load_breast_cancer import matplotlib.pyplot as plt x, y = load_breast_cancer(return_x_y=true) df = pd.dataframe(x, columns=range(30)) df['y'] = y model = xgb.xgbclassifier() model.fit(x, y) importances = model.feature_importances_ importances = pd.series(importances, index=range(x.shape[1])) importances.plot.bar()
7、主成分分析 pca对特征进行主成分分析,并查看每个主成分的解释方差比。在前几个组件上具有较高负载的特性更为重要。
from sklearn.decomposition import pca import pandas as pd from sklearn.datasets import load_breast_cancer import matplotlib.pyplot as plt x, y = load_breast_cancer(return_x_y=true) df = pd.dataframe(x, columns=range(30)) df['y'] = y pca = pca() pca.fit(x) plt.bar(range(pca.n_components_), pca.explained_variance_ratio_) plt.xlabel('pca components') plt.ylabel('explained variance')
8、方差分析 anova使用f_classif()获得每个特征的方差分析f值。f值越高,表明特征与目标的相关性越强。
from sklearn.feature_selection import f_classif import pandas as pd from sklearn.datasets import load_breast_cancer import matplotlib.pyplot as plt x, y = load_breast_cancer(return_x_y=true) df = pd.dataframe(x, columns=range(30)) df['y'] = y fval = f_classif(x, y) fval = pd.series(fval[0], index=range(x.shape[1])) fval.plot.bar()
9、卡方检验使用chi2()函数可以获取每个特征的卡方统计信息。得分越高的特征越有可能与目标变量独立
from sklearn.feature_selection import chi2 import pandas as pd from sklearn.datasets import load_breast_cancer import matplotlib.pyplot as plt x, y = load_breast_cancer(return_x_y=true) df = pd.dataframe(x, columns=range(30)) df['y'] = y chi_scores = chi2(x, y) chi_scores = pd.series(chi_scores[0], index=range(x.shape[1])) chi_scores.plot.bar()
为什么不同的方法会检测到不同的特征?由于不同的特征重要性方法,有时可以确定哪些特征是最重要的
1、他们用不同的方式衡量重要性:有的使用不同特特征进行预测,监控精度下降
像xgboost或者回归模型使用内置重要性来进行特征的重要性排序
而pca着眼于方差解释
2、不同模型有不同模型的方法:线性模型偏向于处理线性关系,而树模型则更倾向于捕捉接近根节点的特征
3、交互作用:有些方法可以获取特征之间的相互关系,而有些方法则不行,这会导致结果的不同
3、不稳定:使用不同的数据子集,重要性值可能在同一方法的不同运行中有所不同,这是因为数据差异决定的
4、hyperparameters:通过调整超参数,例如主成分分析(pca)组件或决策树的深度,也会对结果产生影响
所以不同的假设、偏差、数据处理和方法的可变性意味着它们并不总是在最重要的特征上保持一致。
选择特征重要性分析方法的一些最佳实践尝试多种方法以获得更健壮的视图聚合结果的集成方法更多地关注相对顺序,而不是绝对值差异并不一定意味着有问题,检查差异的原因会对数据和模型有更深入的了解以上就是九种常用的python特征重要性分析方法的详细内容。