- 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
JointParsingandSemanticRoleLabeling.ppt
联合句法分析和语义角色标注 2010-3-16 提纲 1.动机 2.引言 3.Base SRL系统 4.使用SRL的重排句法树 5.实验和探讨 6.句法树的总结 7.结论和相关工作 动机 将语义角色标注(SRL)和句法分析相结合 达到提高SRL的F1值的目的。 1.引言 方法:加权求和句法分析模型和SRL模型 实验效果: F1值并未得到提高 文中分析原因: SRL打分不可信,模型是局部训练的 2.Base SRL 系统 分为三个阶段: 2.1 Base SRL 第一步 修剪 去掉确定不要的语义成分 SRL基本概念: 语义角色分为谓词成分和论元。 例如: 动词可以作为谓词成分 论元是动作的承受者或是动作的执行者 2.2 Base SRL 第二步 标识 使用二分ME 需保留的成分 为Null且高概率成分 2.3 Base SRL 第三步 分类 分成多类: 成分 1 成分 2 ... Null 语义论元重叠问题: 采用一种递归算法解决 3.使用SRL的重排句法树 联合概率模型: P F,t|x P F|t,x P t|x 其中: x表示句子 F表示语义 t表示语法树 P F|t,x 为Base SRL 模型概率 P t|x 为给定标准概率语法模型 3.1最大化重排方法 (1)每个句子(语法树)生成一个k-best列表 (2)使用base SRL 模型选择一个最好的SRL框架。 (3)本文重排方法不同之处在于:语法树的选择和SRL框架是从base 模型中选出最优的 注:k-best列表生成方法使用Dan Bikel’s 2004 4.实验和探讨 主要讨论几种方法的对比实验结果 (1)base 系统数据 (2)作弊的实验数据组 (3)本文k-best 树方法 作弊的实验:从k-best列表中选取一棵句法分析树与标准句法分析树最接近的进行实验。 参见Table 3 row 3 row 4 三组实验对比 Table 3 4.1基于综合评分的重排 本文k-best tree方法 参见Table 3 row 5 实验调节参数时: SRL权重越大,整个系统的效果越差 4.2 采用全局特征训练的重排 1.Collins 2000 的重排方法 参见参考文献 2010.5.11讨论文2 2.Toutanova方法:一个句法树的重排的k-best 句法树的SRL框架 3.本文使用的是k-best句法树中重排之后的1-best SRL框架 实验表明:采用全局特征训练方法不如1-best 句法分析方法 参见table 3 row 6 相差0.3 5.句法分析树总结 实验的重点: 获得一个优良语义框架, 但是结果并不奏效 弱化句法树:用求和句法分析树来代替最大化句法分析树 P F|x 6.结论和相关工作 两个失败的经验教训 1.Gildea Jurafsky 2002参考文献3 2.本文ME SRL 模型 下一步研究最大化求和方法,以避免最大化重排方法的缺陷。 一些思考 1. 一定规模的、高质量、分类科学的适合语义处理的语料(统计方法可用的前提) 2.现有知网和词林是否可以胜任语义知识的重任? 3.联合句法分析和SRL的方法值得思索,如果能有数学融合公式的理论支持是否会更好? 4.SMT和语义分析 赵一霖 2010年3月16日 * 修剪 标识 分类 *
文档评论(0)