决策树方法的基本内涵(3分钟全面了解决策树方法)


决策树(Decision Tree)是机器学习中一种常见的算法,它的思想非常朴素,就像我们平时利用选择做决策的过程。决策树是一种基本的分类与回归方法,当被用于分类时叫做分类树,被用于回归时叫做回归树。

如何快速简单的理解决策树的概念?

一、决策树结构:

顾名思义,决策树在逻辑上表现为树的形式,包含有节点和向边。

一般情况下,一棵决策树包含一个根节点、若干个内部节点和若干个叶结点。

根节点:包含样本全集,从根节点到每个叶结点的路径对应了一个判定测试序列。

内部节点:表示一个特征和属性。每个内部节点都是一个判断条件,并且包含数据集中,满足从根节点到该节点所有条件的数据的集合。根据内部节点的属性测试结果,内部节点对应的数据的集合别分到两个或多个子节点中。

叶节点:表示一个类,对应于决策结果。叶节点为最终的类别,如果该数据被包含在该叶节点,则属于该类别。

如下图中,其中圆和方框分别表示内部节点和叶结点。

如何快速简单的理解决策树的概念?

简而言之,决策树是一个利用树的模型进行决策的预测模型,表现出的是对象属性与对象值之间的一种映射关系,简单明了,非常容易理解。

我们决策树学习的目的是为了产生一棵泛化能力强,也就是能够高效、有效处理未见示例的决策树。

二、决策树的优缺点:

1.决策树的最大优点是,对背景知识要求不高,计算复杂度也不是很高,可以自学习。

2.属于有监督学习

3.对中间缺失值不敏感

4. 解释性强,甚至超过线性回归

5.相比传统的回归和分类方法,决策树是更接近人的决策模式

6. 能够用图形来表示,即使不是专业人士也可以轻松理解

7.可以在不创建哑变量的情况下,直接处理定性的预测变量,

8.决策树的预测准确性相比一般比回归和分类方法比较弱,但能够通过用集成学习方法组合大量决策树,这样可以显著提升树的预测效果

三、决策树的生成

决策树的生成是一个自顶向下的递归过程,其基本思想是以信息熵为度量构造一棵熵值下降最快的树,到叶子结点处的熵值为零。

在决策树算法中有三种情形导致递归返回:

1)当前节点包含的样本属于同一类,不需要划分;

2)当前属性集为空,无法进行划分。这种情况下,需要将当前节点标记成叶节点,并将其类别设定为所含样本最多的类别;利用当前节点的后验分布;(就是:有样本无属性进行划分)

3)当前结点包含的样本集合为空,不能进项划分。此时,要将当前节点标记为叶节点,将其类别设定为其父结点所含样本最多的类别;利用父结点的先验分布(就是:无样本有属性)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发表评论

登录后才能评论