目录

前言

一、决策树是什么?

二、决策树的优点和缺点

三、决策树的应用场景

四、构建决策树模型的注意事项

五、决策树模型的实现类库

六、决策树模型的评价指标

七、类库scikit-learn实现决策树的例子

八、决策树的模型参数

总结


前言

决策树是机器学习中有监督学习的解决分类和回归任务的一种算法。

一、决策树是什么?

决策树是利用归纳算法生成可读的规则,对新数据进行预测,因为规则的结构呈现树形,所以叫决策树。
主要有根节点,内部节点,叶节点三部分构成。根节点:初始节点,包含样本的全集;内部节点:对应特征属性测试;叶节点:决策的结果。先后有ID3,C4.5, CART等几种算法,ID3又称迭代二叉树3代算法,C4.5是对ID3的升级,能够和连续解释变量一起使用,同时可以为特征提供缺失的值,也可以用于给树剪枝,CART是不同于C4.5的另一种剪枝算法。
决策树在选择特征进行分叉的时候,需要对特征携带的信息量进行评价,熵,信息增益和基尼不纯度是常用的几个用于选择特征的指标。熵用来衡量分类结果的不确定性的程度,不确定性越大,熵的取值也就越大。信息增益是用来衡量熵的减少程度,信息增益越大,代表特征可以最大程度的减少不确定性。基尼不纯度是用来衡量一个集合中类的比例,依赖于可能类的数量,值越大代表集合中包含的类越多。


二、决策树的优点和缺点

1. 优点:

  • 易于理解和解释:决策树算法生成的模型易于理解和解释,可以直观地表示出各个特征的重要性和影响因素。
  • 可处理离散和连续型特征:决策树算法可以处理离散型和连续型特征,且不需要对数据进行归一化等预处理操作。
  • 可处理多分类问题:决策树算法可以处理多分类问题,且分类效果通常较好。
  • 可以处理缺失值:决策树算法可以处理缺失值,且不需要对数据进行补全等操作。
  • 可以进行特征选择:决策树算法可以根据特征的重要性进行特征选择,从而提高模型的泛化能力。

2. 缺点:

  • 容易过拟合:决策树算法容易过拟合,特别是当模型复杂度较高或训练数据较少时,需要进行剪枝等操作。
  • 对噪声和异常值敏感:决策树算法对噪声和异常值较为敏感,可能会导致模型的不稳定性。
  • 不适用于高维数据:决策树算法不适用于高维数据,因为在高维空间中,决策树算法很难找到合适的划分点。
  • 不能处理连续型输出变量:决策树算法不能直接处理连续型输出变量,需要进行离散化等操作。
  • 需要注意的是,在实际应用中,决策树算法的性能还受到许多其他因素的影响,例如特征选择、剪枝等,需要根据具体情况进行调整和优化。

三、决策树的应用场景

  • 分类问题:决策树可以用于分类问题,如垃圾邮件识别、客户信用评估等。
  • 回归问题:决策树也可以用于回归问题,如房价预测、股票价格预测等。
  • 特征选择:决策树可以用于特征选择,即从众多特征中选择最重要的特征。
  • 异常检测:决策树可以用于异常检测,如网络入侵检测、信用卡欺诈检测等。
  • 多标签学习:决策树可以用于多标签学习,如图像分类、文本分类等。
  • 集成学习:决策树可以用于集成学习中的bagging和boosting算法中,如随机森林、Adaboost等。
  • 交互式决策:决策树可以用于交互式决策系统,如金融投资、医疗诊断等。
  • 决策规则提取:决策树可以用于从数据中提取决策规则,如市场营销、客户满意度调查等。

四、构建决策树模型的注意事项

  • 决策树可以得到最大深度的树,以实现在训练集表现上的最优,但这种树结构因为过拟合在测试集上的性能比较差,因此要根据实际情况进行剪枝,以平衡模型在训练集和测试集上的表现。

五、决策树模型的实现类库

Python中有多个库可以实现决策树,以下是其中比较常用的几个库:

  • NumPy:NumPy是Python科学计算的基础包,其中包含了线性代数、随机数生成等功能,可以用于实现决策树。
  • scikit-learn:scikit-learn是Python中常用的机器学习库,其中也包含了决策树。
  • TensorFlow:TensorFlow是Google开发的深度学习框架,其中也包含了线性决策树。
  • PyTorch:PyTorch是另一个常用的深度学习框架,其中也包含了决策树。
  • Keras:Keras是一个高级神经网络API,可以在多个深度学习框架上运行,其中也包含了决策树。

以上这些库都提供了丰富的接口和功能,可以满足不同场景下的需求。需要注意的是,在使用这些库时,需要根据具体情况选择合适的模型、参数和评估指标,以获得更好的预测效果。

六、决策树模型的评价指标

决策树可以进行回归和分类的建模

1. 回归模型的评价指标有:

  • 均方误差(Mean Squared Error,MSE)是预测值与真实值之间差值的平方的平均值,用来衡量模型的预测精度,MSE 越小,说明模型的预测结果越准确。
  • 均方根误差(Root Mean Squared Error,RMSE)是均方误差的平方根,用来衡量模型的预测精度,RMSE 越小,说明模型的预测结果越准确。
  • 平均绝对误差(Mean Absolute Error,MAE)是预测值与真实值之间差值的绝对值的平均值,用来衡量模型的预测精度,MAE 越小,说明模型的预测结果越准确。
  • 决定系数(Coefficient of Determination,R-squared)用来衡量模型对数据的拟合程度,取值范围为 0~1,R-squared 越接近 1,说明模型对数据的拟合程度越好。

2. 分类模型的评价指标有:

  • 准确率(Accuracy)是指分类正确的样本数占总样本数的比例,用来衡量模型的分类准确度。
  • 精确率(Precision)是指分类为正类的样本中,实际为正类的样本数占分类为正类的样本数的比例,用来衡量模型对正类的分类准确度。
  • 召回率(Recall)是指实际为正类的样本中,被分类为正类的样本数占实际为正类的样本数的比例,用来衡量模型对正类的识别能力。
  • F1 分数(F1-score)是精确率和召回率的调和平均数,用来综合衡量模型的分类准确度和识别能力。
  • ROC 曲线和 AUC 值是用来评估二元分类器性能的常用指标。ROC 曲线是以假正率(False Positive Rate,FPR)为横轴,真正率(True Positive Rate,TPR)为纵轴,绘制出来的曲线。AUC 值是 ROC 曲线下面积的大小,取值范围为 0~1,AUC 值越大,说明分类器的性能越好。

七、类库scikit-learn实现决策树的例子

下面是决策树进行回归和分类建模的示例:

1. 导入必要的库和模块:

import numpy as np
from sklearn.datasets import load_iris, load_boston
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier, DecisionTreeRegressor
from sklearn.metrics import accuracy_score, mean_squared_error

2. 回归建模过程:

# 加载数据集
boston = load_boston()
X = boston.data
y = boston.target

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 创建决策树回归模型
regressor = DecisionTreeRegressor()

# 模型训练
regressor.fit(X_train, y_train)

# 预测
y_pred = regressor.predict(X_test)

# 模型评价
mse = mean_squared_error(y_test, y_pred)
print("Mean Squared Error:", mse)

3. 分类建模过程:

# 加载数据集
iris = load_iris()
X = iris.data
y = iris.target

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 创建决策树分类模型
classifier = DecisionTreeClassifier()

# 模型训练
classifier.fit(X_train, y_train)

# 预测
y_pred = classifier.predict(X_test)

# 模型评价
accuracy = accuracy_score(y_test, y_pred)
print("Accuracy:", accuracy)

这里的示例代码使用了scikit-learn库中的`DecisionTreeClassifier`和`DecisionTreeRegressor`类来构建决策树分类和回归模型。首先,我们加载了适当的数据集(波士顿房价数据集和鸢尾花数据集),然后将数据集划分为训练集和测试集。接下来,我们创建了相应的决策树模型,并使用训练集对其进行训练。然后,我们使用测试集进行预测,并使用适当的评价指标(均方误差和准确率)对模型进行评估。

请注意,这只是一个简单的示例,实际应用中可能需要进行更多的数据预处理、参数调优和模型优化。


八、决策树的模型参数

1. DecisionTreeClassifier是一个用于分类问题的决策树算法模型,下面是常用的模型参数:

  • criterion(默认值为"gini"):用于衡量特征选择质量的准则。可以选择"gini"(基尼不纯度)或"entropy"(信息增益)。
  • splitter(默认值为"best"):在每个节点中选择分割点的策略。可以选择"best"(选择最佳分割点)或"random"(随机选择分割点)。
  • max_depth(默认值为None):决策树的最大深度。如果为None,则节点会一直分裂,直到所有的叶子节点都是纯净的,或者每个叶子节点包含的样本数小于min_samples_split。
  • min_samples_split(默认值为2):进行分割所需的最小样本数。如果某个节点的样本数小于该值,则不会再进行分割。
  • min_samples_leaf(默认值为1):叶子节点所需的最小样本数。如果某个叶子节点的样本数小于该值,则该叶子节点会被剪枝。
  • max_features(默认值为None):寻找最佳分割点时要考虑的特征数量。可以选择"auto"(等同于"sqrt")、"sqrt"、"log2"或一个整数值。
  • random_state(默认值为None):用于控制随机性的种子值。设置该值可以使模型的可复现性。

2. DecisionTreeRegressor是一个用于回归问题的决策树算法模型,下面是常用的模型参数:

  • criterion(默认值为"mse"):用于衡量特征选择质量的准则。可以选择"mse"(均方误差)或"mae"(平均绝对误差)。
  • splitter(默认值为"best"):在每个节点中选择分割点的策略。可以选择"best"(选择最佳分割点)或"random"(随机选择分割点)。
  • max_depth(默认值为None):决策树的最大深度。如果为None,则节点会一直分裂,直到所有的叶子节点都包含的样本数小于min_samples_split。
  • min_samples_split(默认值为2):进行分割所需的最小样本数。如果某个节点的样本数小于该值,则不会再进行分割。
  • min_samples_leaf(默认值为1):叶子节点所需的最小样本数。如果某个叶子节点的样本数小于该值,则该叶子节点会被剪枝。
  • max_features(默认值为None):寻找最佳分割点时要考虑的特征数量。可以选择"auto"(等同于"sqrt")、"sqrt"、"log2"或一个整数值。
  • random_state(默认值为None):用于控制随机性的种子值。设置该值可以使模型的可复现性。

总结

本文主要简单介绍了决策树的基本概念,优缺点,应用场景,决策树建模时的注意事项,python的实现方法,案例和模型参数等。

Logo

瓜分20万奖金 获得内推名额 丰厚实物奖励 易参与易上手

更多推荐