欢迎来到三一办公! | 帮助中心 三一办公31ppt.com(应用文档模板下载平台)
三一办公
全部分类
  • 办公文档>
  • PPT模板>
  • 建筑/施工/环境>
  • 毕业设计>
  • 工程图纸>
  • 教育教学>
  • 素材源码>
  • 生活休闲>
  • 临时分类>
  • ImageVerifierCode 换一换
    首页 三一办公 > 资源分类 > PPT文档下载  

    机器学习决策树ppt课件.ppt

    • 资源ID:1342261       资源大小:2.83MB        全文页数:16页
    • 资源格式: PPT        下载积分:16金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要16金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    机器学习决策树ppt课件.ppt

    决策树,主讲人:王二,主要内容,决策树基本概念,基本流程,划分选择,剪枝处理,决策树基本概念,决策树,决策树是数据挖掘分类算法的一个重要方法。在各种分类算法中,决策树是最直观的一种。在机器学习中也是一种常用方法。 我们希望从给定的训练集中学得一个模型用来对新示例进行分类,这一分类过程称为“决策”过程。决策树是基于树结构进行决策的。,基本流程,构造过程: 决策树是以实例为基础的归纳学习算法。它从一组无次序、无规则的元组中推理出决策树表示形式的分类规则;采用自顶向下递归方式,在决策树的内部节点进行属性值的比较,并根据不同的属性值从该节点向下分支,而叶节点是要学习划分的类。从根节点到叶节点的一条路径就对应着一条合取规则,整个决策树就对应着一组析取表达式规则。,例如:我们要对“这是好瓜吗”这样的问题进行决策时,通常会进行一系列的判断:我们先看“它是什么颜色”,如果是“青绿色”再看“它的根蒂是什么形态”,如果是“蜷缩”,我们在判断“它敲起来是什么声音”,最后,我们得出最终的决策:这是个好瓜,这个过程如下:决策树的基本组成部分:决策结点、分支和叶子。,决策树算法目前已有多种决策树算法:CLS、ID3、CHAID、C4.5、CART、SLIQ、SPRINT等。著名的ID3(Iterative Dichotomiser3)算法是J.R.Quinlan在1986年提出的,该算法引入了信息论中的理论,是基于信息熵的决策树分类算法。,决策树ID3算法,,最后得到一棵决策树,它可以用来对新的样本进行分类。,ID3算法的核心是:在决策树各级节点上选择属性时,用信息增益作为属性的选择标准,以使得在每一个非叶节点进行测试时能获得关于被测试记录最大的类别信息。具体方法:检测所有的属性,选择信息增益最大的属性产生决策树结点,由该属性的不同取值建立分枝,再对各分支的子集递归调用该方法建立决策树结点的分枝,直到所有子集仅包含同一类别的数据为止,最后得到一棵决策树,它可以用来对新的样本进行分类。,Ent(D)的值越小,则D的纯度越高。,假定属性a有V个可能的取值a1 .av,若使用a来对样本集D进行划分,则会产生V个分支节点,其中第V个分支节点包含了D中所有在属性a上取值为av的样本,记为Dv。在考虑到不同的分支节点所包含的样本不同,给分支节点赋予权重Dv/D,即样本数越多的分支节点的影响越大,于是计算出属性a对样本D进行划分所获得的“信息增益”(information gain)。一般而言,信息增益越大,则意味着使用属性a来进行划分所获得的“纯度”(即分支节点所包含的样本尽可能属于同一类别),以下表的西瓜数据为例,以属性“色泽”为例,它有三个可能取值青绿,乌黑,浅白,记为:D1=青绿,D2=乌黑,D3=浅白算D1包含1,4,6,10,13,176个样例,其中正比例P1=3/6,反比例P2=3/6;D2包含2,3,7,8,9,156个样例,其中正比例P1=4/6,反比例P2=2/6;D3包含5,11,12,14,165个样例,其中正比例P1=1/5,反比例P2=4/5。,由此可计算出用“色泽”划分之后的三个分支节点的信息熵为,于是可计算出属性“色泽”的信息增益为,然后,决策树学习算法将对每个分支节点作进一步的划分。最终得到的决策树如下所示:,剪枝处理 剪枝(pruning)是决策树学习算法对付“过合”的主要手段,为了尽可能正确的分类训练样本,节点划分过程将不断重复,有时会造成决策树分支太多,这时就可能因训练样本学得“太好”了,以至于把训练集自身的一些特点当做所有数据的特点而导致过拟合。因此,可通过主动去掉一些分支来降低过拟合的风险。 剪枝分为“预剪枝”和“后剪枝”。预剪枝是在决策树生成过程中,对每个节点在划分之前先进行估计,若当前节点的划分不能带来决策树的泛化性能的提升,则停止划分并将当前节点标记为叶节点。,剪枝处理 后剪枝则是先生成一颗完整的决策树,然后自底向上的对叶节点进行考察,若将该节点对应的子树替换为叶节点能带来决策树泛化性能的提升,则将该子树替换为叶节点。,

    注意事项

    本文(机器学习决策树ppt课件.ppt)为本站会员(小飞机)主动上传,三一办公仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一办公(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备2025010119号-1

    经营许可证:宁B2-20210002

    宁公网安备 64010402000987号

    三一办公
    收起
    展开