欢迎来到三一办公! | 帮助中心 三一办公31ppt.com(应用文档模板下载平台)
三一办公
全部分类
  • 办公文档>
  • PPT模板>
  • 建筑/施工/环境>
  • 毕业设计>
  • 工程图纸>
  • 教育教学>
  • 素材源码>
  • 生活休闲>
  • 临时分类>
  • ImageVerifierCode 换一换
    首页 三一办公 > 资源分类 > PPT文档下载  

    人工智能基础05-机器学习.ppt

    • 资源ID:5194281       资源大小:659.50KB        全文页数:87页
    • 资源格式: PPT        下载积分:15金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要15金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    人工智能基础05-机器学习.ppt

    目录,第一章绪论第二章知识表示 第三章搜索技术第四章推理技术第五章机器学习 第六章专家系统 第七章自动规划系统第八章 自然语言理解第九章 智能控制第十章 人工智能程序设计,5.1 机器学习概述,学习的基本概念 学习是人类具有的一种重要的智能行为。西蒙的观点:学习就是系统在不断重复的工作中对本身能力的增强或者改进,使得系统在下一次执行同样任务或类似任务时,会比现在做得更好或效率更高。1959年 Samuel 下棋程序,具有学习能力。4年后程序战胜了设计者,又3年后战胜了美国一个冠军。,5.1 机器学习概述,机器学习的定义机器学习是研究如何使用机器来模拟人类学习活动的一门学科。稍为严格的提法是:机器学习是一门研究机器获取新知识和新技能,并识别现有知识的学问。,5.1 机器学习概述,机器学习的发展 机器学习是人工智能应用研究较为重要的分支,它的发展过程大体上可分为4个时期:(1)第一阶段是在50年代中叶到60年代中叶,属于热烈时期。在这个时期,所研究的是“没有知识”的学习,即“无知”学习;其研究目标是各类自组织系统和自适应系统;指导本阶段研究的理论基础是早在40年代就开始研究的神经网络模型。,5.1 机器学习概述,(2)第二阶段在60年代中叶至70年代中叶,被称为机器学习的冷静时期。本阶段的研究目标是模拟人类的概念学习过程,并采用逻辑结构或图结构作为机器内部描述。(3)第三阶段从70年代中叶至80年代中叶,称为复兴时期。在这个时期,人们从学习单个概念扩展到学习多个概念,探索不同的学习策略和各种学习方法。本阶段已开始把学习系统与各种应用结合起来。(4)机器学习的最新阶段始于1986年。一方面,由于神经网络研究的重新兴起,另一方面,对实验研究和应用研究得到前所未有的重视。,5.1 机器学习概述,机器学习研究与应用的发展趋势(1)从有教师指导的归纳学习向无教师指导的发现学习转变。以数据挖掘为核心技术的发现学习成为最有价值的机器学习技术。(2)从面向确定性环境的观察学习到面向不确定性环境的统计学习转变。概率理论和统计分析处理不确定问题。(3)从缺乏坚实理论的经验性学习到具有严密数学基础的学习理论转变。粗糙集和统计学习理论。,5.2 机器学习的主要策略和基本结构,机器学习的主要策略学习过程与推理过程是紧密相连的,按照学习中使用推理的多少,机器学习所采用的策略大体上可分为4种:机械学习、示教学习、类比学习和示例学习。学习中所用的推理越多,系统的能力越强。(1)机械学习就是记忆,是最简单的学习策略。这种学习策略不需要任何推理过程。(2)比机械学习更复杂一点的学习是示教学习策略。系统在接受外部知识时需要一点推理,翻译和转化工作。,5.2 机器学习的主要策略和基本结构,(3)类比学习系统只能得到完成类似任务的有关因此,他比上述两种学习策略需要更多的推理。(4)采用示例学习策略的计算机系统,事先完全没有完成任务的任何规律性的信息,因此需要推理是最多的。,5.2 机器学习的主要策略和基本结构,机器学习系统的基本结构 环境向系统的学习部分提供某些信息,学习部分利用这些信息修改知识库,以增进系统执行部分完成任务的效能,执行部分根据知识库完成任务,同时把获得的信息反馈给学习部分。在具体的应用中,环境,知识库和执行部分决定了具体的工作内容,学习部分所需要解决的问题完全由上述3部分确定。,环境,学习,知识库,执行,5.2 机器学习的主要策略和基本结构,影响学习系统设计的重要因素(1)影响学习系统设计的最重要的因素是环境向系统提供的信息。整个过程要遵循“取之精华,弃之糟粕”的原则,同时谨记“实践是检验真理的唯一标准”。(2)知识库是影响学习系统设计的第二个因素。知识的表示有多种形式,在选择表示方式时要兼顾以下4个方面:表达能力强。所选择的表示方式能很容易地表达有关的知识。易于推理。为了使学习系统的计算代价比较低,希望知识表示方式能使推理较为容易。,5.2 机器学习的主要策略和基本结构,容易修改知识库。学习系统的本质要求它不断地修改自己的知识库,当推广得出一般执行规则后,要加到知识库中。知识表示易于扩展。学习系统不能在全然没有任何知识的情况下凭空获取知识,每一个学习系统都要求具有某些知识理解环境提供的信息,分析比较,做出假设,检验并修改这些假设。因此,更确切地说,学习系统是对现有知识的扩展和改进。,5.3 常见的几种学习方法,5.3.1 机械学习1.机械学习的模式机械学习是最简单的机器学习方法。机械学习就是记忆,即把新的知识存储起来,供需要时检索调用,而不需要计算和推理。机械学习又是最基本的学习过程。任何学习系统都必须记住它们获取的知识。在机械学习系统中,知识的获取是以较为稳定和直接的方式进行的,不需要系统进行过多的加工。,5.3 常见的几种学习方法,5.3.1 机械学习2.数据化简Lenat,Hayes Roth,和Klahr等人于1979年关于机械学习提出一种有趣的观点。他们指出,可以把机械学习看成是数据化简分级中的第一级。数据化简与计算机语言编译类似;其目的是把原始信息变成可执行的信息。在机械学习中我们只记忆计算的输入输出,忽略了计算过程,这样就把计算问题化简成存取问题。,5.3 常见的几种学习方法,5.3.1 机械学习,存储,计算,推导,归纳,算法与理论,机械记忆,搜索规则,5.3 常见的几种学习方法,5.3.1 机械学习3.主要问题对于机械学习,需要注意3个重要的问题:存储组织,稳定性和存储与计算之间的权衡。(1)存储组织信息:采用适当的存储方式,使检索速度尽可能地快,是机械学习中的重要问题。(2)环境的稳定性与存储信息的适用性问题:机械学习系统必须保证所保存的信息适应于外界环境变化的需要,这也就是所谓的信息适用性问题。(3)存储与计算之间的权衡:对于机械学习来说很重要的一点是它不能降低系统的效率。,5.3 常见的几种学习方法,5.3.2 基于解释的学习 解释学习(explanation 最初是由美国Illinois 大学的DeJong 于1983 年提出来的。在经验学习的基础上,运用领域知识对单个例子的问题求解作出解释,这是一种关于知识间因果关系的推理分析,可产生一般的控制策略。解释学习根据任务所在领域知识和正在学习的概念知识,对当前实例进行分析和求解,得出一个表征求解过程的因果解释树,以获取新的知识。在获取新的知识过程中,通过对属性、表征现象和内在关系等进行解释而学习到新的知识。,5.3 常见的几种学习方法,5.3.2 基于解释的学习 解释学习一般包括下列3个步骤:(1)利用基于解释的方法对训练例子进行分析与解释。(2)对例子的结构进行概括性解释。(3)从解释结构中识别出训练例子的特性,获取一般控制知识。1986年Mitchell,Keller 和 Kedar-Cabelli等人为基于解释的学习提出了一个统一的算法EBG(Explanation-Based Generalization),该算法建立了基于解释的概括过程,并运用知识的逻辑表示和演绎推理进行问题求解。,5.3 常见的几种学习方法,5.3.2 基于解释的学习,操作规则,目标概念,训练实例,新规则,领域知识,5.3 常见的几种学习方法,5.3.2 基于解释的学习 EBG求解问题的形式可描述于下:给定:(1)目标概念描述TC;(2)训练实例TE;(3)领域知识DT;(4)操作准则OC。求解:训练实例的一般化概括,使之满足:(1)目标概念的充分概括描述TC;(2)操作准则OC。,5.3 常见的几种学习方法,5.3.2 基于解释的学习 其中,领域知识DT是相关领域的实施和规则,在学习系统中作为背景知识,用于证明训练实例TE为什么可以作为目标概念的一个实例,从而形成相应的解释。训练实例TE是为学习系统提供一个例子,在学习过程中起着重要的作用,它应能充分地说明目标概念TC。操作规则OC用于指导学习系统对目标概念进行取舍,使得通过学习产生的关于目标概念TC的一般性描述成为可用的一般性知识。基于解释的学习从本质上说属于演绎学习,它是根据给定的领域知识,进行保真的演绎推理,存储有用结论,经过知识的求精和编辑,产生适合以后求解类似问题的控制知识。,5.3 常见的几种学习方法,5.3.3 基于事例的学习 当无法建立好的模型时,可通过记录事例进行学习。采用基于事例的学习:首先,任何时候都可以应用相容启发方法,把某个预先观察过的事物的特性赋予一个从未见过的新事物;其次,学会如何用于k维树结构迅速找到特征空间内的最近邻物体。相容启发:无论何时要猜测某事物的特性,除了提供一套参考事例外不知道其他情况;通过测量其他事物的已知特性,找到最相近的事例,该事例的特性特性是已知的。作为猜测:所求未知特性是与最相似事例的已知特性一样的。,5.3 常见的几种学习方法,5.3.3 基于概念的学习 归纳学习的定义(1)归纳(induction)是人类拓展认识能力的重要方法,是一种从个别到一般的,从部分到整体的推理行为。(2)归纳推理是应用归纳方法,从足够多的具体事例中归纳出一般性知识,提取事物的一般规律;它是一种从个别到一般的推理。(3)归纳学习(induction learning)是应用归纳推理进行学习的一种方法。从应用角度看,归纳学习可分为概念学习、概念聚集和启发学习三种。,5.3 常见的几种学习方法,5.3.3 基于概念的学习 概念学习研究的路线:(1)基于工程方法的概念学习,它从可能的学习机理出发,试图试验并确定概念学习的工程方法。(2)基于认知建模的概念学习,开发出人类概念学习的计算理论。概念学习的任务:构造类型定义、分类程序(分类),5.3 常见的几种学习方法,5.3.5 基于类比的学习 1.类比推理和类比学习形式类比推理是由新情况与已知情况在某些方面的相似来推出它们在其它相关方面的相似。显然,类比推理是在两个相似域之间进行的:类比推理的目的是从源域中选出与当前问题最近似的问题及其求解方法以求解决当前的问题,或者建立起目标域中已有命题间的联系,形成新知识。,5.3 常见的几种学习方法,5.3.5 基于类比的学习 类比推理过程如下:(1)回忆与联想遇到新情况或新问题时,首先通过回忆与联想在S中找出与当前情况相似的情况,这些情况是过去已经处理过的,有现成的解决方法及相关的知识。(2)选择从找出的相似情况中选出与当前情况最相似的情况及其有关知识。,5.3 常见的几种学习方法,5.3.5 基于类比的学习(3)建立对应映射在S与T的相似情况之间建立相似元素的对应关系,并建立起相应的映射。(4)转换在上一步建立的映射下,把S中的有关知识引到T中来,从而建立起求解当前问题的方法或者学习到关于T的新知识。,5.3 常见的几种学习方法,5.3.5 基于类比的学习 2.类比学习过程与研究类型类比学习主要包括如下四个过程:(1)输入一组已知条件(已解决问题)和一组未完全确定的条件(新问题)。(2)对输入的两组条件,根据其描述,按某种相似性的定义寻找两者可类比的对应关系。,5.3 常见的几种学习方法,5.3.5 基于类比的学习 2.类比学习过程与研究类型(3)按相似变换的方法,将已有问题的概念、特性、方法、关系等映射到新问题上,以获得待求解新问题所需的新知识。(4)对类推得到的新问题的知识进行校验。验证正确的知识存入知识库中,而暂时还无法验证的知识只能作为参考性知识,置于数据库中。,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 1.决策树的概念 决策树算法起源于概念学习系统(CLS:Concept Learning System),是一种有指导的学习方法。决策树分类算法以其易于提取显示规则、计算量相对较小、具有较高的分类准确率等优点被统计学界接受并获得了信赖,并很快被广泛应用于许多领域。决策树技术在许多数据挖掘系统应用中得到研究者和软件公司的极大关注。许多数据挖掘产品中都采用了决策树算法,例如:SAS公司的SAS Enterprise Miner;IBM公司的Intelligent Miner;Solution公司的Clementine;微软的SQL Server。,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 最为典型的决策树学习算法是由J.Ross Quinlan1979年提出的ID3算法。ID3(Iterative Dichotomiser,迭代的二分器)算法是一种基于信息熵的决策树算法,以Shannon的信息论为依据。ID3改进、优化:C4.5算法:1993年,Quinlan出版了专著机器学习规划对C4.5算法进行详细描述。CART(Classification and Regression Tree)算法:描述了二叉决策树的产生,可对连续型因变量进行处理。,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 决策树(又称判定树 decision tree)是一种树结构,其节点分为两类:一类是内节点,另一类是叶节点。内节点:一般用一个属性名来标记,代表对该属性的测试。与内节点连接的边表示对该属性测试的输出。叶节点:每个叶节点表示分类结果,一般用类标号属性值来标记。,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习,Male?,grade,grade,class1,class2,class3,class2,yes,no,60,60,60,60,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 如何构造一颗具有较高分类准确率的决策树?关键:如何确定当前要以哪个属性作为测试属性?1948 年Shannon 提出并发展了信息论,研究以数学的方法度量并研究信息。通过通信后对信源中各种符号出现的不确定程度的消除来度量信息量的大小。(1)自信息量 设系统S中有多个可能发生的事件:a1,a2,an,事件ai发生的概率为p(ai),i=1,2,n,p(ai)0,1 p(ai)越大,事件ai不确定程度越低,反之,则越高。,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 用-log p(ai)表示事件ai的不确定程度,称为ai的自信息量I(ai)I(ai)=-log p(ai)/log以2为底(2)信息熵(entropy)如果将S看作一个信源,a1,a2,an看成信源S发出的n种类型的信息,则信源S的不确定性可以用平均自信息量来度量,记为H(S),定义:,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 2.决策树的学习 决策树学习的过程是从空树开始,从训练集中不断选择测试属性,逐步创建决策树的过程。设X为训练集,分为m类,第i类中的训练实例集合记为Ci,i=1,2,m,那么X中任意一个实例属于类Ci的概率估计值为:p(Ci)=|Ci|/|X|其中|X|表示集合X中的元素个数。训练集X关于类簇C=C1,C2,Cm的分类不确定性可用西面信息熵来度量:,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 在C已知的情况下(训练集中已确定),H(X,C)简写为H(X)。构造决策树的目的:将训练集X的不确定程度H(X)降至最低。从而可以对未知数据(X集以外的数据)进行分类预测。构造决策树的过程是从空树开始不断添加节点的过程,关键是选择测试属性,使得构造起来的“半”决策树最大限度减低训练集X的信息熵H(X)。,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 设A=a1,a2,ar为候选的测试属性,那么属性A对X形成一个划分a1,a2,ar,其中ai表示X中在属性A上取值为ai的实例集合,i=1,2,r。现对任意i1,2,r,考虑类ai。令则 形成ai的一个划分,于是类ai关于类簇 的分类不确定性程度为:,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 其中,表示类ai中任意一个实例属于 的概率,令称E(A)为由属性A划分成子集的信息熵。,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 当选择A作为测试属性时,导致训练集X的信息熵的压缩量为 H(X,C)-E(A)该压缩量成为信息增益(information gain),记为gain(A)gain(A)=H(X,C)-E(A)构造决策树时,选择当前具有最大信息增益的属性作为当前节点的测试属性,这使得X的信息熵下降最快,构造的决策树高度也相对较低。,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 示例:(1)创建根节点 先计算gain(color)。inflated为类标号属性,对X的划分为 C=T,F=1,2,3,4,5,7,8,10,3,6,9=C1,C2 其中 C1=1,2,3,4,5,7,8,10=T C2=3,6,9=F,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 H(X,C)=-p(C1)logp(C1)-p(C2)logp(C2),5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 属性color对X形成的划分为 1,2,3,4,5,6,7,8,9,10=YELLOW,PURPLE其中 YELLOW=1,2,3,4,5,6,PURPLE=7,8,9,10于是=YELLOW C1=1,2,3,4,5,6 1,2,4,5,7,8,10=1,2,4,5=YELLOW C2=1,2,3,4,5,6 3,6,9=3,6,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习=PURPLE C1=7,8,9,10 1,2,4,5,7,8,10=7,8,10=PURPLE C2=7,8,9,10 3,6,9=9,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 这样 gain(color)=H(X,C)-E(color)=0.88-0.88=0同样的方法,可得 gain(size)=0 gain(act)=0.88 gain(age)=0.28 act具有最高信息增益,选为根节点。,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习,act,DIP,STRETCH,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习(2)创建子节点 左边的表类标号属性均为T,故创建叶节点。右边的表,作为新数据集,依据步骤(1),计算信息增益,选择测试属性,构造内节点,直到得到一颗完整的决策树。,act,T,age,F,T,DIP,STRECH,ADULT,CHILD,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 决策树剪枝 噪声数据和独立(异常)点造成产生的分枝异常,过少的实例失去了统计意义,分枝不具代表性。剪枝:减少异常分枝出现。先剪枝技术:提前终止决策树的“生长”后剪枝技术:对创建完毕的决策树进行剪枝,剪去“畸形发展”的分枝。,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 3.从决策树提取分类规则 决策树:分类规则集 act=STRETCHinflated=T act=DIPage=CHILD inflated=F act=DIPage=ADULT inflated=T,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 4.决策树学习适用的问题实例是由“属性-值”对表示的目标函数具有离散的输出值(如布尔型)需要析取得描述(决策树本身代表析取表达式)训练数据可以包含错误训练数据可以包含缺少属性值的实例,5.3 常见的几种学习方法,5.3.6 基于决策树的归纳学习 5.决策树学习的问题过度拟合(运用剪枝技术)连续值属性(连续值域分割为离散区间集合)属性选择度量(信息增益偏袒具有较多值的属性),5.3 常见的几种学习方法,5.3.7 强化学习 1.强化学习的概念 强化学习(reinforcement learning):智能系统从环境到行为映射的学习,以使奖励信号(强化信号)函数值最大。连接主义的学习分类:监督学习(supervised learning)无监督学习(unsupervised learning)强化学习,5.3 常见的几种学习方法,5.3.7 强化学习 强化学习中由环境提供的强化信号对智能体(Agent)产生动作的好坏做一种评价,而不是直接告诉智能体要做什么或者要采取哪个动作,而是智能体通过看哪个动作得到了最多的奖励来自己发现。智能体的动作的影响不只是立即得到的奖励,而且还影响接下来的动作和最终的奖励。试错搜索(trial-and-error search)和延期强化(delayed reinforcement)这两个特性是强化学习中两个最重要的特性。,5.3 常见的几种学习方法,5.3.7 强化学习 2.强化学习的基本模型和原理 强化学习技术是从控制理论、统计学、心理学等相关学科发展而来,最早可以追溯到巴甫洛夫的条件反射实验。但直到上世纪八十年代末、九十年代初强化学习技术才在人工智能、机器学习和自动控制等领域中得到广泛研究和应用,并被认为是设计智能系统的核心技术之一。特别是随着强化学习的数学基础研究取得突破性进展后,对强化学习的研究和应用日益开展起来,成为目前机器学习领域的研究热点之一。,5.3 常见的几种学习方法,5.3.7 强化学习 基本模型:,Agent,环境,状态 s,奖励 r,动作 a,5.3 常见的几种学习方法,5.3.7 强化学习 强化学习系统接受环境状态的输入s,根据内部的推理机制,系统输出相应的行为动作a。环境在系统动作作用a 下,变迁到新的状态s。系统接受环境新状态的输入,同时得到环境对于系统的瞬时奖惩反馈r。对于强化学习系统来讲,其目标是学一个行为策略:SA,使系统选择的动作能够获得环境奖励的累计值最大。在学习过程中,强化学习技术的基本原理是:如果系统某个动作导致环境正的奖励,那么系统以后产生这个动作的趋势便会加强。反之系统产生这个动作的趋势便减弱。这和生理学中的条件反射原理是接近的。,5.3 常见的几种学习方法,5.3.7 强化学习 3.强化学习分类 强化学习算法可划分为两类:一类算法是先进行模型的学习,再根据模型知识推导最优策略,这类算法被称为模型相关算法(Model-based);另一类算法是直接计算最优策略,这类算法被称为模型无关算法(Model-free)。模型相关的强化学习算法包括时序差分算法(TD)、Sarsa算法和Dyna算法等。模型无关的强化学习算法包括蒙特卡罗算法(Monte Carlo)、Q学习算法和R学习算法等。,5.3 常见的几种学习方法,5.3.7 强化学习 4.强化学习的应用(1)在游戏比赛中应用 Samuel 在跳棋游戏中应用了时序差分的思想。(2)在控制系统中应用 倒立摆控制 过程控制,5.3 常见的几种学习方法,5.3.7 强化学习(3)在机器人中应用 机器人导航系统 机器人协调动作 机器人路径规划,机器人足球比赛中的2 vs.1问题,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性 1.生理神经元的结构与功能(1)生理神经元的结构 神经元指神经细胞,它是生物神经系统的最基本的单元。,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性 神经元由细胞体、树突和轴突组成。细胞体是神经元的主体,由细胞核、细胞质和细胞膜三部分构成.从细胞体向外延伸出许多突起,其中大部分突起呈树状,称为树突.树突起感受作用,接受来自其他神经元的传递信号.由细胞体伸出的一条最长的突起,用来传出细胞体产生的输出信号,称之为轴突;轴突末端形成许多细的分枝,叫做神经末梢;每一条神经末梢可以与其他神经元形成功能性接触,该接触部位称为突触。所谓功能性接触是指并非永久性接触,它是神经元之间信息传递的奥秘之处。,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性 一个神经元把来自不同树突的兴奋性或抑制性输入信号(突触后膜电位)累加求和的过程,称为整合。考虑到输入信号的影响要持续一段时间(毫秒级),因此,神经元的整合功能是一种时空整合。当神经元的时空整合产生的膜电位超过阈值电位时,神经元处于兴奋状态,产生兴奋性电脉冲,并经轴突输出;否则,无电脉冲产生,处于抑制状态。,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性 神经元由细胞体、树突和轴突组成。细胞体是神经元的主体,由细胞核、细胞质和细胞膜三部分构成.从细胞体向外延伸出许多突起,其中大部分突起呈树状,称为树突.树突起感受作用,接受来自其他神经元的传递信号.由细胞体伸出的一条最长的突起,用来传出细胞体产生的输出信号,称之为轴突;轴突末端形成许多细的分枝,叫做神经末梢;每一条神经末梢可以与其他神经元形成功能性接触,该接触部位称为突触。所谓功能性接触是指并非永久性接触,它是神经元之间信息传递的奥秘之处。,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性(1)生理神经元的功能 人脑有极大量的神经元(约为1010 1012个),每个神经元又约有103 104个突触,神经元通过突触经过复杂的互连而成的一种高度复杂、非线性、并行处理的信息处理系统。,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性 与计算机相比 数量:神经元1010 1012 个;目前世界上最快的富士通“京”计算机,由68544个8核处理器所组成,总核数达548,352个。速度:单个神经元的反应速度是在毫秒级;计算机逻辑门反应时间在10-9S。,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性 与计算机相比 连接:每个神经元可与几千个其他神经元连接(总连接数61013);计算机 几百个机架,通过交换机与I/O节点连接能耗:神经元每一运算约10-16J/S;计算机每一运算10-6J/S,“京”计算机9,890千瓦电源。,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性 2.人工神经网络的组成与数学描述(1)人工神经网络的组成,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性它是一个多输入单输出的非线性阈值器件。其中 x1,x2,xn表示神经元的n个输入信号量;w1,w2,wn表示对应输入的权值,它表示各信号源神经元与该神经元的连接强度;表示神经元的输入总和,它相应于生物神经细胞的膜电位,称为激活函数;y为神经元的输出;表示神经元的阈值。,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性(2)数学描述 神经元输出 f称为激发函数(active function)或作用函数,它决定神经元的输出。该输出为1或0,取决于其输入之和大于或小于内部阈值。,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性 激发函数一般具有非线性特性,常用有三种:阈值型 1,xi0 f(xi)=U(xi)=0,xi0 分段线性饱和型 Sigmoid型 最常用,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性,f(x),0,x,f(x),0,x,f(x),0,x,阈值型,分段线性饱和型,Sigmoid型,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性3.人工神经网络的分类 如果将多个神经元按某种的拓扑结构连接起来,就构成了神经网络。根据连接的拓扑结构,神经网络可分为四大类:分层前向网络、反馈前向网络、互连前向网络、广泛互连网络。,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性(1)分层前向网络 分层前向网络如上图(a)所示。这种网络的结构特征是,网络由若干层神经元组成,一般有输入层、中间层(又称隐层,可有一层或多层)和输出层,各层顺序连接;且信息严格地按照从输入层进,经过中间层,从输出层出的方向流动。(2)反馈前向网络 反馈前向网络如上图(b)所示。它也是一种分层前向网络,但它的输出层到输入层具有反馈连接。反馈的结果形成封闭环路,具有反馈的单元也称为隐单元,其输出称为内部输出。,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性(3)互连前向网络 互连前向网络如上图(c)所示。它也是一种分层前向网络,但它的同层神经元之间有相互连接。同一层内单元的相互连接使它们之间有彼此牵制作用。(4)广泛互连网络 所谓广泛互连是指网络中任意两个神经元之间都可以或可能是可达的,即存在连接路径,广泛互连网络如图上图(d)所示。著名的Hopfield网络、波尔茨曼机模型结构均属此类。,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性4.人工神经网络的功能具体来讲,神经网络至少可以实现如下功能:数学上的映射逼近 通过一组映射样本(x1,y1)(x2,y2),(xn,yn),网络以自组织方式寻找输入与输出之间的映射关系:yi=f(xi)。识别和分类可以抽象为这一过程。数据聚类 通过自组织方式对所选输入模式聚类。多目标跟踪 联想记忆 实现模式完善、恢复,相关模式的相互回忆等。,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性3.人工神经网络的功能 优化计算和组合优化问题求解 利用神经网络的渐进稳定态,特别是反馈网络的稳定平衡态,进行优化计算或求解组合优化问题的近似最优解。模式分类 现有的大多数神经网络模型都有这种分类能力。概率密度函数的估计 根据给定的概率密度函数,通过自组织网络来响应在空间Rn中服从这一概率分布的一组向量样本X1,X2,Xk。,5.4 基于神经网络的学习,5.4.1 神经网络的组成与特性4.人工神经网络的工作过程 神经网络的工作过程主要由两阶段组成:第一个阶段是学习期,此时各计算单元状态不变,各连接权值通过学习样本可修改;第一个阶段是工作期,此时各连接权值固定,计算单元的状态变化,以求达到稳定状态。学习(亦称训练)是神经网络的最重要特征之一。神经网络能够通过学习,改变其内部状态,使输入输出呈现出某种规律性。网络学习一般是利用一组称为样本的数据,作为网络的输入(和输出),网络按照一定的训练规则(又称学习规则或学习算法)自动调节神经元之间的连接强度或拓扑结构,当网络的实际输出满足期望的要求,或者趋于稳定时,则认为学习成功。,5.4 基于神经网络的学习,5.4.2 基于反向传播网络的学习 反向传播(back-propagation)算法是一种计算单个权值变化引起网络性能变化值的较为简单的方法。由于BP算法过程包含从输出节点开始,反向地向第一隐含层(即最接近输入层的隐含层)传播由总误差引起的权值修正,所以称为“反向传播”。反向传播特性与所求解问题的性质和所作细节选择有极为密切的关系。,5.4 基于神经网络的学习,5.4.2 基于反向传播网络的学习 1.BP网络结构 BP网络就是多层前向网络 结构:输入层、一层或多层隐层、输出层 激发函数:S形函数,输入模式,输出模式,5.4 基于神经网络的学习,5.4.2 基于反向传播网络的学习 学习过程:正向传播:输入信息从输入层经隐层逐层处理后传至输出层,每层神经元的状态只影响下一层神经元的状态。反向传播:输出层得不到期望输出,把误差信号沿原连接路径返回,并修改各神经元的权值,使误差信号最小。1974年,Werbos提出BP学习算法 1985年,Rumelhart和Meclelland发展了BP学习算法,实现了Minsky多层感知器设想。,5.4 基于神经网络的学习,5.4.2 基于反向传播网络的学习 2.反向传播公式 思想:选择神经网络的权值使期望输出d与实际输出O的方差最小。利用非线性规划中的“最快下降法”,使权值沿目标函数的负梯度方向改变。公式:,对于隐节点,对于输出节点,5.4 基于神经网络的学习,5.4.2 基于反向传播网络的学习 式中:Wij 表示连接第i层节点和第j层节点的权值修正值 r为比例参数。r选得越大越有利于提高学习速度,但太大易引起输出过分超过期望值(超调)。Oj为第j层节点的输出,5.4 基于神经网络的学习,5.4.2 基于反向传播网络的学习 3.BP学习算法(1)选取比例参数(2)进行下列过程直至性能满足要求为止(a)对于每一训练(采样)输入:按下式计算输出节点的值 z=dz-Oz 按下式计算全部其他节点,5.4 基于神经网络的学习,5.4.2 基于反向传播网络的学习 按下式计算全部权值变化(b)对于所有训练(采样)输入,对权值变化求和,并修正各权值。,5.4 基于神经网络的学习,5.4.2 基于反向传播网络的学习,开始,置权值和阈值初始值,给定输入向量和目标输出向量,误差是否满足要求,停止,是,选取比例参数,求隐层和输出层各节点输出,求期望输出与实际输出误差,权值学习修正,计算权值拱度,5.4 基于神经网络的学习,5.4.2 基于反向传播网络的学习 4.BP网络学习示例,H1,H2,A,钱一,刘二,张三,李四,王五,赵六,5.4 基于神经网络的学习,5.4.2 基于Hopfield网络的学习反馈神经网络,它是一种动态反馈系统,比前馈网络具有更强的计算能力。Hopfield网络是一种具有正反相输出的带反馈人工神经元。Hopfield网络系统不仅能够实现联想记忆,而且能够执行线性和非线性规划等优化求解任务。,

    注意事项

    本文(人工智能基础05-机器学习.ppt)为本站会员(牧羊曲112)主动上传,三一办公仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一办公(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-2

    经营许可证:宁B2-20210002

    宁公网安备 64010402000987号

    三一办公
    收起
    展开