news 2026/4/18 7:07:49

决策树与回归树简介:原理、实现与应用

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
决策树与回归树简介:原理、实现与应用

文章目录

    • 一、决策树基本概念
    • 二、决策树分类算法
      • 1. ID3算法
      • 2. C4.5算法
      • 3. CART决策树
    • 三、决策树回归模型
      • 1. 回归树特点
      • 2. 回归树计算示例
    • 四、Scikit-learn中的决策树实现
      • 1. 分类决策树参数
      • 2. 回归决策树参数
    • 五、Python实现示例
      • 1. 分类决策树实现
    • 六、决策树剪枝
      • 1. 剪枝的目的
      • 2. 剪枝方法
      • 3. 预剪枝策略
    • 七、模型评估指标
      • 1. AUC-ROC曲线
      • 2. AUC的优点

一、决策树基本概念

决策树是一种有监督学习算法,通过对训练样本的学习建立分类或回归规则,并依据这些规则对新样本进行预测。它的核心思想是将数据从根节点逐步划分到叶子节点,形成一个树状结构。

决策树的组成

  • 根节点:第一个节点,包含所有数据
  • 非叶子节点(中间节点):进行数据划分的节点
  • 叶子节点:最终结果节点,不再继续划分

二、决策树分类算法

决策树主要有三种分类标准:

1. ID3算法

使用信息增益作为分裂标准,基于熵值衡量节点的不确定性。

熵值计算公式
H ( U ) = − ∑ i = 1 n p i log ⁡ 2 p i H(U) = -\sum_{i=1}^n p_i \log_2 p_iH(U)=i=1npilog2pi

熵值越小,节点越"纯",包含的类别越单一。

2. C4.5算法

使用信息增益率作为分裂标准,解决了ID3算法倾向于选择取值较多的特征的问题。

3. CART决策树

使用基尼系数作为分裂标准,可以用于分类和回归问题。

基尼系数计算公式(二分类)
G i n i ( p ) = 2 p ( 1 − p ) Gini(p) = 2p(1-p)Gini(p)=2p(1p)

三、决策树回归模型

1. 回归树特点

  • 解决回归问题的决策树模型
  • 必须是二叉树结构
  • 节点分裂依据是使均方误差(MSE)最小化

2. 回归树计算示例

以简单数据集为例:

x12345678910
y5.565.75.916.46.87.058.98.799.05

通过计算不同切分点的损失函数,找到最优切分点,逐步构建回归树。

损失函数
L ( j , s ) = ∑ x i ∈ R 1 ( j , s ) ( y i − c ^ 1 ) 2 + ∑ x i ∈ R 2 ( j , s ) ( y i − c ^ 2 ) 2 L(j, s) = \sum_{x_i \in R_1(j, s)} (y_i - \hat{c}_1)^2 + \sum_{x_i \in R_2(j, s)} (y_i - \hat{c}_2)^2L(j,s)=xiR1(j,s)(yic^1)2+xiR2(j,s)(yic^2)2

其中c ^ 1 \hat{c}_1c^1c ^ 2 \hat{c}_2c^2分别是两个区域的样本均值。

四、Scikit-learn中的决策树实现

1. 分类决策树参数

fromsklearn.treeimportDecisionTreeClassifier

主要参数说明

  • criterion: 分裂标准,‘gini’(基尼系数)或 ‘entropy’(信息熵)
  • max_depth: 树的最大深度,防止过拟合
  • min_samples_split: 分裂内部节点所需的最小样本数
  • min_samples_leaf: 叶子节点最少样本数
  • max_leaf_nodes: 最大叶子节点数
  • random_state: 随机种子,保证结果可重复

2. 回归决策树参数

fromsklearn.treeimportDecisionTreeRegressor

主要参数说明:

  • criterion: 分裂标准,‘mse’(均方误差)或 ‘mae’(平均绝对误差)
  • 其他参数与分类树类似

五、Python实现示例

1. 分类决策树实现

importpandasaspdfromsklearnimporttreefromsklearn.model_selectionimporttrain_test_splitfromsklearnimportmetricsimportmatplotlib.pyplotaspltfromsklearn.metricsimportconfusion_matrix# 可视化混淆矩阵函数defcm_plot(y,yp):cm=confusion_matrix(y,yp)plt.matshow(cm,cmap=plt.cm.Blues)plt.colorbar()forxinrange(len(cm)):fory_inrange(len(cm)):plt.annotate(cm[x,y_],xy=(y_,x),horizontalalignment='center',verticalalignment='center')plt.ylabel('True label')plt.xlabel('Predicted label')returnplt# 导入数据datas=pd.read_excel("电信客户流失数据.xlsx")# 划分特征和标签data=datas.iloc[:,:-1]target=datas.iloc[:,-1]# 划分训练集和测试集data_train,data_test,target_train,target_test=\ train_test_split(data,target,test_size=0.2,random_state=42)# 创建决策树分类器dtr=tree.DecisionTreeClassifier(criterion='gini',max_depth=5,random_state=60)# 训练模型dtr.fit(data_train,target_train)# 训练集预测train_predicted=dtr.predict(data_train)# 评估训练集print(metrics.classification_report(target_train,train_predicted))cm_plot(target_train,train_predicted).show()# 测试集预测test_predicted=dtr.predict(data_test)# 评估测试集print(metrics.classification_report(target_test,test_predicted))cm_plot(target_test,test_predicted).show()# 模型评分score=dtr.score(data_test,target_test)print(f"模型准确率:{score}")


六、决策树剪枝

1. 剪枝的目的

防止过拟合,提高模型泛化能力。

2. 剪枝方法

  • 预剪枝:在树构建过程中提前停止生长
    • 限制树的深度
    • 限制叶子节点的个数
    • 限制叶子节点的样本数
  • 后剪枝:先构建完整的树,然后自底向上进行剪枝

3. 预剪枝策略

  1. 限制树的深度(max_depth)
  2. 限制叶子节点的个数(max_leaf_nodes)
  3. 限制分裂节点的最小样本数(min_samples_split)
  4. 限制叶子节点的最小样本数(min_samples_leaf)

七、模型评估指标

1. AUC-ROC曲线

  • AUC:曲线下面积,衡量模型对正负样本的区分能力
  • ROC:接收者操作特征曲线,显示不同阈值下真正例率和假正例率的关系

2. AUC的优点

  • 考虑了分类器对正例和负例的分类能力
  • 在样本不平衡的情况下依然有效
  • 不受样本不平衡问题影响,是相对稳健的评价指标
# AUC值计算y_pred_proba=dtr.predict_proba(data_test)a=y_pred_proba[:,1]auc_result=metrics.roc_auc_score(target_test,a)print(f"AUC值:{auc_result}")# 绘制ROC曲线fromsklearn.metricsimportroc_curve fpr,tpr,thresholds=roc_curve(target_test,a)plt.figure()plt.plot(fpr,tpr,color='darkorange',lw=2,label=f'ROC curve (area={auc_result:.2f})')plt.plot([0,1],[0,1],color='navy',lw=2,linestyle='--')plt.xlim([0.0,1.0])plt.ylim([0.0,1.05])plt.xlabel('False Positive Rate')plt.ylabel('True Positive Rate')plt.title('Receiver Operating Characteristic')plt.legend()plt.show()

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/17 0:46:14

每日 AI 评测速递来啦(12.18)

司南Daily Benchmark 专区今日上新!RE2-Bench一个面向真实世界复杂代码的推理评测基准,包含 1,101 个代码推理问题,其中 195 个问题来自成熟的真实世界项目。 https://hub.opencompass.org.cn/daily-benchmark-detail/2512%2014917ViF-Bench …

作者头像 李华
网站建设 2026/4/17 4:24:53

vue和springboot框架开发的拼装模型商城销售管理系统_u6r8w6cp

文章目录具体实现截图主要技术与实现手段关于我本系统开发思路java类核心代码部分展示结论源码lw获取/同行可拿货,招校园代理 :文章底部获取博主联系方式!具体实现截图 同行可拿货,招校园代理 vuespringboot_u6r8w6cp 框架开发的拼装模型商城销…

作者头像 李华
网站建设 2026/4/10 16:32:40

1GLOBAL助力Revolut进军波兰移动套餐市场

技术驱动型全球移动通信提供商1GLOBAL深化与Revolut的合作伙伴关系,将这家领先新型银行的移动数据套餐服务拓展至波兰市场。 通过在其多功能应用中集成1GLOBAL的eSIM功能,波兰地区已加入候补名单的Revolut客户只需轻点几下,即可享受捆绑式移…

作者头像 李华
网站建设 2026/4/6 16:16:05

Akamai与Visa携手打造智能代理商务信任体系

依托Visa可信代理协议(Trusted Agent Protocol)验证AI购物代理身份,助力Akamai Cloud防范欺诈,强化智能代理商务的信任层级 为在线业务提供支持和保护的网络安全与云计算公司Akamai Technologies, Inc. (NASDAQ: AKAM)今日宣布与Visa (NYSE: V)达成战略…

作者头像 李华
网站建设 2026/4/16 12:36:37

行业领先的永磁同步电机无感FOC方案:采用闭环结构速度位置观测器,全开源发货清单包括源码与原理图

行业领先的永磁同步电机无感foc方案 采用闭环结构速度位置观测器 全部开源。 发货清单:源码,原理图。江湖上一直有个传说——无感FOC最难搞的就是转子位置观测。今天咱们要聊的这个开源方案,直接把行业级的观测器实现给扒了个底朝天。闭环结构…

作者头像 李华