四川大学计算机学院倪云竹系统结构习题课.docVIP

四川大学计算机学院倪云竹系统结构习题课.doc

  1. 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
四川大学计算机学院倪云竹系统结构习题课

在图像识别中,假定有灌木和坦克2种类型,它们的先验概率分别是0.7和0.3,损失函数如下表所示。其中,类型w1和w2分别表示灌木和坦克,判决a1=w1,a2=w2。现在做了2次实验,获得2个样本的类概率密度如下: 状态 损失 决策 W1 W2 a1 0.5 2 a2 4 1.0 (1)试用最小错误率贝叶斯准则判决2个样本各属于哪一类?坦克、灌木。 (2)试用最小风险决策规则判决2个样本各属于哪一类?灌木、灌木。 答:(1)最小错误率贝叶斯准则 (2)最小风险决策规则 给出二维样本数据(-1,1),(2,2),(1,-1),(-2,-2),试用K-L变换作一维数据压缩。 答:数据压缩结果:0,,0, 已知两类的数据:ω1:(1,0),(2,0),(1,1);ω2:(-1,0),(0,1),(-1,1),试求该组数据的类内与类间散布矩阵。 4、已知欧氏二维空间中两类9个训练样本w1:(-1,0)T,(-2,0)T,(-2,1)T,(-2,-1)T w2:(1,1)T,(2,0)T,(1,-1)T,(2,1)T,(2,2)T,试分别用最近邻法和K近邻法求测试样本(0,0)T的分类,取K=5,7。 答: 最近邻法:最近邻为(-1,0)T分类为w1 K近邻法: K=5:5个近邻为1类的(-1,0)T,(-2,0)T,2类的(1,1)T,(2,0)T,(1,-1)T 分类为w2 K=7:1)若近邻为1类的(-1,0)T,(-2,0)T,(-2,1)T,(-2,-1)T,2类的(1,1)T,(2,0)T,(1,-1)T,则分类为w1 2)若近邻为1类的(-1,0)T,(-2,0)T,(-2,1)T或(-2,-1)T两个之一,2类的(1,1)T,(2,0)T,(1,-1)T,(2,1)T,则分类为w2 1. 什么是模式与模式识别 模式: 模式识别是研究用计算机来实现人类模式识别能力的一门学科)。 模式识别:模式是一些供模仿用的、完美无缺的标本。 2. 模式识别系统的组成 是后验概率? 4. 确定线性分类器的主要步骤 法的主要思想 什么是 他是最近邻法的推广,学习和非监督学习的区别 8. 什么是误差平法和准则 10. 特征抽取和选择的区别 在一定意义上特征抽取和特征选择都是要达到特征降维的目的,只是所实现的途径不同。特征抽取是通过变换的方法组合原始高维特征,获得一组低维的新特征,而特征选择是根据专家的经验知识或根据某种评价准则来挑选出那些对分类最有影响力的特征,并未形成新的特征。 11. 最优有哪些信誉好的足球投注网站算法 是 在统计学习理论基础上发展出的识别方法,在解决小样本、非线性及高维模式识别问题中表现出其优势。 13. 统计学习理论的核心问题 学习一致性的结论是统计学习理论的基础。 学习过程的一致性,就是指当训练样本数目趋于无穷大时,经验风险的最优值能够收敛到真实风险的最优值。 学习理论关键定理:把学习一致性问题转化为一致收敛问题。 经验风险最小化学习过程一致的充分必要条件是函数集的VC维有限。 问答题 两种主要的参数估计方法:最大似然估计、贝叶斯估计。 N个随机变量x1, x2 …, xN的似然函数是N个随机变量的联合密度可以看成是θ的函数。 如果损失函数为平方误差损失函数, 则贝叶斯估计量是给定x时的条件期望。 感知训练法的步骤 X={x1,x2,…,xn},xk属于wi或者wj,且xk的类别是已知的。为了确定加权向量w*,执行下面的训练算法 给定初始值:置k=0,w(k)为任意值,可选常数0<c≤1 输入样本xm∈ {x1,x2,…,xn},g(xm)=wT(k)xm 按如下规则修改权向量 若xm ∈wi,且g(xm) ≤0,w(k+1)=w(k)+cxm 若xm ∈wj,且g(xm) >0,w(k+1)=w(k)-cxm 令k=k+1,w对所有样本稳定不变,结束 初始聚类中心的选择方法: 任取前c个样本点作为初始聚类中心 凭经验选择 将全部数据随机分为c类,计算其重心,将重心作为聚类中心 密度法选择代表点(具有统计特性) 从c-1类划分中产生c类划分问题的初始聚类中心 两分剪辑近邻法:T和参考集R,T中的所有样本,利用参考集采用近邻法对其进行分类决策,如果决策结果与实际类别不同,则从预测集中删除该样本,最后得到经过剪辑的考试样本集TE。 TE, 压缩近邻法中定义了两个存储器,一个用来存放即将生成的样本集,Store;另一个存放原样本集,Grabbag。 初始化,把第一个样本放在Store中,其它样本放入Grabbag。 用当前的Store中的样本按最近邻法对Grabbag中的样本分类。假如分类正确,该样本送入Grabbag;否则放入Store。 重

文档评论(0)

zilaiye + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档