泰国按摩群

导航犬

发布日期:2025-12-17 13:12    点击次数:82

图片

图片

图片

图片

图片

图片

图片

今天给全球先容若何使用randomForestExplainer对赶紧丛林模子的效果进行解说。

从名字就能看出来,randomForestExplainer是挑升为randomForest包开辟的模子解说R包,亦然DrWhy.AI系列用具的一部分。

比拟于其他的通用的模子解说R包,这个包有一些专有的功能,不错对赶紧丛林模子进行极端视备的解说。

装置
# 2选1install.packages("randomForestExplainer")devtools::install_github("ModelOriented/randomForestExplainer")
加载R包和数据

使用一个转头数据集进行演示。其中medv是效果变量(房价),其余是瞻望变量(13个瞻望变量)

library(randomForest)library(randomForestExplainer)data(Boston, package = "MASS")Boston$chas <- as.logical(Boston$chas)str(Boston)## 'data.frame':    506 obs. of  14 variables:##  $ crim   : num  0.00632 0.02731 0.02729 0.03237 0.06905 ...##  $ zn     : num  18 0 0 0 0 0 12.5 12.5 12.5 12.5 ...##  $ indus  : num  2.31 7.07 7.07 2.18 2.18 2.18 7.87 7.87 7.87 7.87 ...##  $ chas   : logi  FALSE FALSE FALSE FALSE FALSE FALSE ...##  $ nox    : num  0.538 0.469 0.469 0.458 0.458 0.458 0.524 0.524 0.524 0.524 ...##  $ rm     : num  6.58 6.42 7.18 7 7.15 ...##  $ age    : num  65.2 78.9 61.1 45.8 54.2 58.7 66.6 96.1 100 85.9 ...##  $ dis    : num  4.09 4.97 4.97 6.06 6.06 ...##  $ rad    : int  1 2 2 3 3 3 5 5 5 5 ...##  $ tax    : num  296 242 242 222 222 222 311 311 311 311 ...##  $ ptratio: num  15.3 17.8 17.8 18.7 18.7 18.7 15.2 15.2 15.2 15.2 ...##  $ black  : num  397 397 393 395 397 ...##  $ lstat  : num  4.98 9.14 4.03 2.94 5.33 ...##  $ medv   : num  24 21.6 34.7 33.4 36.2 28.7 22.9 27.1 16.5 18.9 ...
建树模子

建树赶紧丛林模子:

添加localImp = TRUE示意需要筹议每个瞻望变量对每个不雅测的瞻望效果的孝顺。

set.seed(2017)forest <- randomForest(medv ~ ., data = Boston, localImp = TRUE)forest## ## Call:##  randomForest(formula = medv ~ ., data = Boston, localImp = TRUE) ##                Type of random forest: regression##                      Number of trees: 500## No. of variables tried at each split: 4## ##           Mean of squared residuals: 9.793518##                     % Var explained: 88.4
模子解说

底下会可贵先容这个R包的几个函数,通过从多个方面临这个效果进行解说。

最小深度散布

在有筹议树或者赶紧丛林中,树的深度是一个障碍的超参数,往往一个特征(变量)的深度越小,讲解这个特征越障碍(也不全王人是这么哈)。

咱们不错筹议每个特征的深度散布,就不错大致了解这个特征的障碍性。这个经由不错通过min_depth_distribution竣事:

min_depth_frame <- min_depth_distribution(forest)head(min_depth_frame, n = 10)##    tree variable minimal_depth## 1     1      age             3## 2     1    black             5## 3     1     chas             9## 4     1     crim             2## 5     1      dis             4## 6     1    indus             3## 7     1    lstat             1## 8     1      nox             4## 9     1  ptratio             2## 10    1      rad             5

这个效果不错奏凯画出来,使用plot_min_depth_distribution即可可视化每个特征的最小深度的散布以及它的平均值:

plot_min_depth_distribution(min_depth_frame)

图片

你奏凯把forest这个对象提供给plot_min_depth_distribution亦然不错的,关联词使用min_depth_frame的克己是,要是你要绘图多个最小深度的图,不错幸免重迭筹议,这个筹议经由还挺费期间的.

在筹议平均最小深度时,plot_min_depth_distribution提供3种筹议要道:

mean_sample = "all_trees":莫得用于别离的变量的最小深度等于树的平均深度mean_sample = "top_trees":这个是默许建树.只使用其中一部分树进行筹议mean_sample = "relevant_trees":忽略缺失值,只使用非缺失值筹议平均最小深度

从上图来看dis这个变量的名次是高于indus的,因为平均深度小,关联词从图中不错看出dis这个变量莫得在深度为0时使用过,是以也有可能indus的名次应该靠前.

要是某个数据有很多缺失值,咱们不错尝试使用mean_sample = "relevant_trees"来碰侥幸效果会不会不同(关于咱们这个数据效果雷同)

plot_min_depth_distribution(min_depth_frame, mean_sample = "relevant_trees",                             k = 15)

图片

不错看到dis的名次仍是高于indus的.

在检验这个最小深度散布图时,需要把平均值和散布概述来看,弗成只看平局值.

变量障碍性

奏凯筹议变量障碍性,这个经由也比较慢,关联词会同期筹议多种猜想变量障碍性的目标:

importance_frame <- measure_importance(forest)importance_frame##    variable mean_min_depth no_of_nodes mse_increase node_purity_increase## 1       age        3.21800        9070    4.2510362            1126.8328## 2     black        3.51400        8015    1.7101238             779.6626## 3      chas        6.45162         736    0.7706690             223.7377## 4      crim        2.55400        9388    8.2946300            2245.7347## 5       dis        2.54200        9210    7.3374224            2458.3168## 6     indus        3.43000        4239    5.6495909            2372.2088## 7     lstat        1.28600       11129   63.2892439           12394.3668## 8       nox        2.45400        6248   10.4210162            2814.5932## 9   ptratio        2.58800        4595    7.3896667            2665.5869## 10      rad        4.99746        2666    1.4400123             357.2610## 11       rm        1.42600       11514   33.9459827           12558.5167## 12      tax        3.31400        4420    4.8688001            1519.1153## 13       zn        5.85152        1633    0.7628575             332.5409##    no_of_trees times_a_root       p_value## 1          500            2 4.469233e-242## 2          500            1  7.699206e-95## 3          403            0  1.000000e+00## 4          500           20 1.774755e-298## 5          500            1 3.014263e-266## 6          500           63  1.000000e+00## 7          500          132  0.000000e+00## 8          500           40  9.508719e-01## 9          500           56  1.000000e+00## 10         499            3  1.000000e+00## 11         500          143  0.000000e+00## 12         500           33  1.000000e+00## 13         488            6  1.000000e+00

第一列是变量名字,后头是变量障碍性的猜想目标,关于转头和分类表示的变量障碍性是不雷同的,咱们这里是转头:

mean_min_depth:平均最小深度no_of_nodes:使用该变量进行别离的总的节点的个数mse_increase:变量规则被打乱后,均方过错的平局加多量node_purity_increase:使用某个变量别离后,节点纯度的加多量,通过往日和的减少来猜想no_of_trees:使用该变量进行别离的总的树的个数times_a_root:使用该变量算作根节点进行别离的树的个数p_value:单侧二项散布熟习的p值

要是是分类问题,会表示以下几列:

accuracy_decrease:当变量规则被打乱后,平均瞻望准确率下落了几许gini_decrease:使用某个变量别离后,基尼所有的平均减极少

不错看到效果中亦然有mean_min_depth的,是以measure_importance也允许你使用不同的要道筹议这个效果.

不错竣事多个障碍性目标可视化,等于同期可视化两个变量障碍性目标.

比如同期展示mean_min_depth和times_a_root两个目标,同期把点的大小映射给no_of_nodes,其实是相等于展示了3个目标:

plot_multi_way_importance(importance_frame, size_measure = "no_of_nodes")

图片

也不错通过x_measure/y_measure指定不同的目标:

plot_multi_way_importance(importance_frame,                           x_measure = "mse_increase",                           y_measure = "node_purity_increase",                           size_measure = "p_value",                           no_of_labels = 5)## Warning: Using alpha for a discrete variable is not advised.

图片

还不错奏凯借助ggpairs比较多个变量障碍性目标的关系,其实等于筹议相干所有并进行可视化:

plot_importance_ggpairs(importance_frame)

图片

由于是借助了GGally包中的ggpairs这个函数,是以不错鼎新图形的散布方式,就不错用来展示不同目标的名次:

plot_importance_rankings(importance_frame)

图片

交互作用解说

在阐述变量障碍性目标接受好咱们的变量之后,还不错探索下它们之间的交互作用。

比如咱们先阐述mean_min_depth和no_of_trees接受前5个最障碍的变量:

(vars <- important_variables(importance_frame, k = 5,                              measures = c("mean_min_depth", "no_of_trees")))## [1] "lstat" "rm"    "nox"   "dis"   "crim"

然后探索交互作用(很慢):

interactions_frame <- min_depth_interactions(forest, vars)head(interactions_frame[order(interactions_frame$occurrences,                               decreasing = TRUE), ])##    variable root_variable mean_min_depth occurrences interaction## 33    lstat         lstat       1.279749         479 lstat:lstat## 8     black         lstat       2.464367         477 lstat:black## 53       rm         lstat       1.431866         475    lstat:rm## 3       age         lstat       2.178071         473   lstat:age## 18     crim         lstat       1.848217         473  lstat:crim## 23      dis         lstat       1.735482         473   lstat:dis##    uncond_mean_min_depth## 33                 1.286## 8                  3.514## 53                 1.426## 3                  3.218## 18                 2.554## 23                 2.542

这个效果给出了每个变量和其他变量交互作用的最小深度等信息,泰国按摩群occurrences是交互作用出现的次数。

效果可视化:

plot_min_depth_interactions(interactions_frame)

图片

这个效果横坐标是变量间的交互作用,是按照交互作用出现次数递减排序的,最前边的是lstat:lstat,同期它的mean_min_depth亦然最小的。

底下咱们接受lstat:rm(你接受我方需要的)陆续探索这个交互作用对瞻望效果的影响:

plot_predict_interaction(forest, Boston, "rm", "lstat")

图片

从图中不错看出,rm越大,lstat越小,房价越高。

生成推崇

用一转代码不错生成一个可贵的模子解说推崇导航犬,内部包含所灵验果,还有一些解说,极端便捷:

explain_forest(forest, interactions = TRUE, data = Boston)
本站仅提供存储处事,整个实质均由用户发布,如发现存害或侵权实质,请点击举报。




Powered by 泰国按摩群 @2013-2022 RSS地图 HTML地图

Copyright Powered by365站群 © 2013-2025