第1章 模式识别课程绪论ppt课件.ppt
《第1章 模式识别课程绪论ppt课件.ppt》由会员分享,可在线阅读,更多相关《第1章 模式识别课程绪论ppt课件.ppt(101页珍藏版)》请在三一办公上搜索。
1、,第1章 模式识别绪论,模式识别的定义Pattern recognition is the study of how machines can observe the environment, learn to distinguish patterns of interest from their background, and make sound and reasonable decisions about the categories of the patterns. Anil K. Jain,Michigan State University http:/www.cse.msu.edu
2、/jain/Ref: Anil K. Jain et al. Statistical Pattern Recognition:A Review. IEEE Trans. on pattern analysis and machine intelligence. 2000, 22(1):4-37,什么是模式识别?,模式识别的目的:利用计算机对物理对象进行分类,在错误概率最小的条件下,使识别的结果尽量与客观物体相符合。Y = F(X) X的定义域取自特征集 Y的值域为类别的标号集 F是模式识别的判别方法,什么是识别?,生产实践的需要:需要智能机器人,另外人的工资高,而计算机的价格越来便宜。信息爆炸
3、现象:处理人来不及处理的信息。如:卫星遥感,超级市场,邮政,银行,指纹库。危险地带:油漆、放射、高温、核电站。提高工效:自动化带来的好处已经显而易见。,为什么要研究模式识别,与其他学科的联系与区别人工智能: 符号主义,连接主义,行为主义,机制主义(结构,功能,行为)计算智能:神经网络,模糊逻辑,进化计算机器学习:分类,聚类,回归,有监督学习,无监督学习,半监督学习统计学运筹学,与其他学科的关系,主要内容,模式识别基本概念模式识别系统组成模式识别基本问题应用领域小结,模式识别基本概念,【基本概念】,【基本概念】,【基本概念】,主要内容,模式识别基本概念模式识别系统组成模式识别基本问题应用领域小结
4、,模式识别系统组成,【模式识别系统组成】,1. 信息的获取:通过测量、采样、量化并用矩阵或向量表示。通常输入对象的信息有三个类型:二维图像(文字、指纹、地图、照片等)、一维波形(脑电图、心电图、机械震动波形等)、物理参量和逻辑值(体检中的温度、血化验结果等),2. 预处理:去除噪声,加强有用的信息,并对输入测量仪器或其它因素造成的干扰进行处理。,3. 特征提取与选择:为了实现有效的识别分类,要对原始数据进行变换得到最能反映分类本质的特征,此过程为特征提取和选择。,4. 分类决策:在特征空间中用统计方法把被识别对象归为某一类。基本作法是在样本训练集基础上确定某个判决规则,使按这种判决规则对被识别
5、对象进行分类所造成的错误识别率最小或引起的损失最小。,5.后处理:针对决策采取相应的行动。,【模式识别系统组成】,【例1:车牌识别】,车牌识别系统框图,车牌定位,车牌倾斜校正,字符分割,传感器:摄像头预处理:统一光照、统一焦距,去除背景,分割特征提取:长度,亮度,重量,鳍的数目输入(测量):重量,长度,宽度,光泽度(亮还是暗)鳍数目特征选择:哪个特征能最好的区分两种鱼?设计分类器:线性?非线性?,例2:鲈鱼和鲑鱼识别,从长度很难区分Salmon:鲑鱼 Sea bass:鲈鱼,特征选择:长度,错误率仍然较高,特征选择:亮度,完美的分界,特征选择:宽度+亮度,线性分类器,分类器设计,非线性分类器,
6、分类器设计,哪一个好?为什么?,分类器设计,泛化能力/推广能力(Generalization)设计分类器的中心目标是能够对新样本做出正确的反应,而不是对训练样本的完美分类。分类模型对训练样本的过分匹配是一种应当努力避免的现象:过拟合(Overfitting)避免过拟合的方法:避免过于复杂的决策面复杂的决策面 or 简单的决策面?,分类器的泛化能力,模式识别的基本问题,模式识别的任务,模式采集:从客观世界(对象空间)到模式空间的过程称为模式采集。,特征提取和特征选择:由模式空间到特征空间的变换和选择。,类型判别:特征空间到类型空间所作的操作。,模式识别三大任务,【主要内容】,【模式识别的训练方法
7、】,监督学习(supervised learning ):存在一个教师信号,对训练样本集的每个输入样本能提供类别标记和分类代价并寻找能够降低总体代价的方向。(人脸识别)。利用一组已知类别的样本调整分类器的参数,使其达到所要求性能的过程。对具有概念标记(分类)的训练样本进行学习,以尽可能对训练样本集外的数据进行标记(分类)预测。所有的标记(分类)是已知的。因此,训练样本的岐义性低。,无监督学习(unsupervised learning ):没有显示的教师指导整个训练过程。(图像检索)。对没有概念标记(分类)的训练样本进行学习,以发现训练样本集中的结构性知识。所有的标记(分类)是未知的。因此,训
8、练样本的岐义性高。聚类就是典型的无监督学习。,半监督学习(Semi-supervised Learning ):半监督学习是利用少部分标记数据集及未标记样本进行学习的主流技术。(如医学图像)。无监督学习只利用未标记的样本集,而监督学习则只利用标记的样本集进行学习。但在很多实际问题中,只有少量的带有标记的数据,因为对数据进行标记的代价有时很高。,【监督学习与无监督学习】,监督的学习方法的性能完全由训练样本的数量和质量决定,目标是通过已有的一部分输入数据与输出数据之间的对应关系,生成一个函数,建立问题域的预测模型,将输入映射到合适的输出。主要存在以下两点缺陷: (1)垃圾进、垃圾出。是指分类器的有
9、效性完全依赖于训练样本的质量,当训练样本的质量不高时,很难得到好的分类效果。(2)过分适应训练样本(过拟合)。当训练样本的数量有限时,就会出现过分适应训练样本的现象,从而影响对新到数据的分类性能。简单解决的办法是增加训练样本的数量,但是给训练数据分类是一项极其耗费时间的工作,甚至有些情况下是不可能的。比如:对于有些问题,人们还不知道问题的正确答案,因此“增加训练样本的数量”看似简单,实际上并不简单。一句话:从它得到的训练集中进行“学习”,从而对未知数据进行分类。常用的算法包括:决策树分类法,朴素的贝叶斯分类算法(native Bayesian classifier)、基于支持向量机(SVM)的
10、分类器,神经网络法,k-最近邻法(k-nearest neighbor,kNN),模糊分类法等等。,无监督的学习方法的目标是直接对输入数据集进行建模,通过数据分析以发现有趣的模式或结构。聚类方法是一种典型的无监督的学习方法。需要聚类的数据对象没有标记,需要由聚类算法自己确定。由于对数据对象不具备任何背景知识,聚类算法采用相同的原则对这些数据进行分析,聚类结果是否有效依赖于数据集对事先所制定的原则(假设)的符合程度。,【半监督学习】,Motivation:1、有标记样本难以获取。需要专门的人员,特别的设备,额外的开销等等。2、无标记的样本相对而言是很廉价,容易获取的。两个例子:(1)在计算机辅助
11、医学图像分析中,可以从医院获得大量的医学图像作为训练例,但如果要求医学专家把这些图像中的病灶都标识出来,则往往是不现实的。(2)在进行 Web 网页推荐时,需要用户标记出哪些网页是他感兴趣的,很少会有用户愿意花大量的时间来提供标记,因此有标记的网页示例比较少, Web上存在着无数的网页,它们都可作为未标记示例来使用。显然,如果只使用少量的有标记示例,那么利用它们所训练出的学习系统往往很难具有强泛化能力;另一方面,如果仅使用少量“昂贵的”有标记示例而不利用大量“廉价的”未标记示例,则是对数据资源的极大的浪费。,目前,利用未标记示例的主流学习技术主要有三大类:半监督学习(semi-supervis
12、edlearning)、直推学习(transductive learning)和主动学习(active learning)。这三类技术都是试图利用大量的未标记示例来辅助对少量有标记示例的学习,但它们的基本思想却有显著的不同。在半监督学习中,学习器试图自行利用未标记示例,即整个学习过程不需人工干预,仅基于学习器自身对未标记示例进行利用。直推学习与半监督学习的相似之处是它也是由学习器自行利用未标记示例,但不同的是,直推学习假定未标记示例就是测试例,即学习的目的就是在这些未标记示例上取得最佳泛化能力。换句话说,半监督学习考虑的是一个“开放世界”,即在进行学习时并不知道要预测的示例是什么,而直推学习考
13、虑的则是一个“封闭世界”,在学习时已经知道了需要预测哪些示例。总结:半监督学习是归纳式的,生成的模型可用做更广泛的样本;而直推式学习仅仅为了当前无标记样本的分类。前者使用无标记样本,为了以后其他样本更好的分类。后者只是为了分类好这些有限的无标记样本。主动学习算法可以主动地提出一些标注请求,将一些经过筛选的数据提交给专家进行标注。,【主要内容】,【紧致性】,第1种情况:A1: 111,101,110,011A2:000,010,100,001只要用一个平面就可以将两个点集分开。,【举例】,第2种情况:A1: 111A2:000任何一个通过点000与111连线的平面都能达到分类的目的。,【举例】,
14、第3种情况:A1: 111,001,100,010A2:000,011,101,110需要用3个平面才能分开。,【举例】,对于这种情况,结合A1中任意一点的一个码的数值发生变化,例如111变为101,那么就成为A2中的成员。把这些点成为临界点。 把改变其中一个码值不能改变其集合属性的点成为内点。在该情况下,集合A1和集合A2没有内点,全部为临界点。一般情况,两个集合中具有的临界点越多,就越难分开。例如,A1=000;A2=111,没有临界点,全部为内点,因此较为容易将其分开,一般来说,在D维空间中要用超表面进行分类,假若我们用平面图表示D维空间中点的分布。如下图。,【紧致性】,【主要内容】,【
15、特征选取】,Salmon(鲑鱼) 与Sea bass (鲈鱼)分类系统,【特征选取】,光泽度长度宽度,长度特征直方图,光泽度直方图,宽度(纵轴)-光泽度(横轴),不成功,不成功,成功,【特征选取】,【特征选取】,1.底层特征: (1)数值尺度(numerical size):有明确的数量和数值。 (2)非数值尺度(non-numerical size) 有序尺度:有先后、好坏的次序关系,如酒 分为上,中,下三个等级。 名义尺度(nominal):无数量、无次序关系, 如颜色:红、 黄、蓝、黑 2. 中层特征:经过计算,变换得到的特征 3. 高层特征:在中层特征的基础上有目的的经过运 算形成,【
16、特征选取】,车身,车轮,车型,颜色,底层,中层,汽车,高层,品牌,【主要内容】,【相似性度量与分类】,【相似性度量与分类】,距离值越小,相似性越高,【相似性度量与分类】,2. 用各种距离度量相似性: 已知两个样本: Xi=(xi1, xi2 , xi3,xin)T Xj=(xj1, xj2 , xj3,xjn)T, 绝对值距离(街坊距离或Manhattan距离):,【相似性度量与分类】, 欧几里德(Euclidean)距离明考夫斯基(Minkowski)距离 其中当q=1时为绝对值距离,当q=2时为欧氏距离,其中Xi ,Xj为特征向量, 为协方差矩阵。使用于N个样本的集合中两个样本之间求M氏距
17、离:, 切比雪夫(Chebyshev)距离:,是q趋向无穷大时明氏距离的极限情况, 马哈拉诺比斯(Mahalanobis)距离,N样本个数,例:马哈拉诺比斯(Mahalanobis)距离:,设X1=(0,0)T, X2=(0,1) T, X3=(1,0) T, X4=(1,1) T.则N=4,,两点之间的马氏距离,两点之间的欧氏距离,都具对称性。但数值不同。马氏距离的计算步骤:1.求样本均值;2.求协方差矩阵;3.求协方差矩阵的逆矩阵?;4.按公式求两点间马氏距离。5.优点:量纲无关,排除变量之间的相关性的干扰。,马氏距离的优点,1、用逆矩阵的原因是相当于除去scale对距离的影响。如一维的情
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第1章 模式识别课程绪论ppt课件 模式识别 课程 绪论 ppt 课件
三一办公所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。




链接地址:https://www.31ppt.com/p-1428411.html