模式识别习题课new.docVIP

  1. 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
模式识别习题课new.doc

在图像识别中,假定有灌木和坦克2种类型,它们的先验概率分别是0.7和0.3,损失函数如下表所示。其中,类型w1和w2分别表示灌木和坦克,判决a1=w1,a2=w2。现在做了2次实验,获得2个样本的类概率密度如下: 状态 损失 决策 W1 W2 a1 0.5 2 a2 4 1.0 (1)试用最小错误率贝叶斯准则判决2个样本各属于哪一类?坦克、灌木。 (2)试用最小风险决策规则判决2个样本各属于哪一类?灌木、灌木。 答:(1)最小错误率贝叶斯准则 (2)最小风险决策规则 给出二维样本数据(-1,1),(2,2),(1,-1),(-2,-2),试用K-L变换作一维数据压缩。 答:数据压缩结果:0,,0, 0---算出m后应该把它当作坐标原点重新计算其他坐标值 3---|λE-A|=0 (λE-A)*X=0 0向量 平移坐标系,将模式的总体均值向量作为新坐标系的原点 求随机向量X的自相关矩阵 求自相关矩阵的n个特征值及其对应的特征向量 将特征值从大到小排序,取前m个大的特征值所对应的特征向量构成新的变换矩阵 将n维向量变换为m维新向量 已知两类的数据:ω1:(1,0),(2,0),(1,1);ω2:(-1,0),(0,1),(-1,1),试求该组数据的类内与类间散布矩阵。 Sw(within)neilei Sb(betwwen)neijian 4、已知欧氏二维空间中两类9个训练样本w1:(-1,0)T,(-2,0)T,(-2,1)T,(-2,-1)T w2:(1,1)T,(2,0)T,(1,-1)T,(2,1)T,(2,2)T,试分别用最近邻法和K近邻法求测试样本(0,0)T的分类,取K=5,7。 答: 最近邻法:最近邻为(-1,0)T分类为w1 K近邻法: K=5:5个近邻为1类的(-1,0)T,(-2,0)T,2类的(1,1)T,(2,0)T,(1,-1)T 分类为w2 K=7:1)若近邻为1类的(-1,0)T,(-2,0)T,(-2,1)T,(-2,-1)T,2类的(1,1)T,(2,0)T,(1,-1)T,则分类为w1 2)若近邻为1类的(-1,0)T,(-2,0)T,(-2,1)T或(-2,-1)T两个之一,2类的(1,1)T,(2,0)T,(1,-1)T,(2,1)T,则分类为w2 2、已知两类的训练样本:w1(0,0)T,(0,2)T;w2(2,0)T,(2,2)T,试用最小平方误差准则算法进行分类器训练,求解向量w*。 1. 什么是模式与模式识别【模式:对象之间存在的规律性关系,模式识别:是研究用计算机来实现人类模式识别能力的一门学科】 2. 什么是误差平方和准则 对于一个给定的聚类,均值向量是最能代表聚类中所有样本的一个向量,也称其为聚类中心。一个好的聚类方法应能使集合中的所有向量与这个均值向量的误差的长度平方和最小。 3. 确定线性分类器的主要步骤 采集训练样本,构成训练样本集。样本应该具有典型性 确定一个准则J=J(w,x),能反映分类器性能,且存在权值w*使得分类器性能最优 设计求解w的最优算法,得到解向量w* 4. 分级聚类算法的2种基本途径是什么 按事物的相似性,或内在联系组织起来,组成有层次的结构,使得本质上最接近的划为一类,然后把相近的类再合并,依次类推,这就是分级聚类算法的基本思想。 聚合法:把所有样本各自看为一类,逐级聚合成一类。基本思路是根据类间相似性大小逐级聚合,每级只把相似性最大的两类聚合成一类,最终把所有样本聚合为一类。 分解法:把所有样本看做一类,逐级分解为每个样本一类。 5. 什么是K近邻法 取未知样本x的k个近邻,看这k个近邻中多数属于哪一类,就把x归为哪一类。 6. 监督学习与非监督学习的区别 利用已经标定类别的样本集进行分类器设计的方法称为监督学习。很多情况下无法预先知道样本的类别,从没有标记的样本集开始进行分类器设计,这就是非监督学习 7. 什么是支持向量机 过两类样本中离分类面最近的点且平行于最优分类面的超平面上的训练样本,叫做支持向量。 支持向量机的基本思想:首先通过非线性变换将输入空间变换到一个高维空间,然后在这个新空间中求取最优线性分类面,而这种非线性变换是通过定义适当的内积函数实现的。 8. 近邻法的基本思想是什么 作为一种分段线性判别函数的极端情况,将各类中全部样本都作为代表点,这样的决策方法就是近邻法的基本思想。 9. 描述K均值聚类算法 给定一个数据点集合和需要的聚类数目k,k由用户指定,k均值算法根据某个距离函数反复把数据分入k个聚类中。先随机选取K个对象作为初始的聚类中心。然后计算每个对象与各个种子聚类中心之间的距离,把每个对象分配给距离它最近

文档评论(0)

xinshengwencai + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:5311233133000002

1亿VIP精品文档

相关文档