559-贝氏估计与WinBUGS 在社会科学的应用.pptVIP

559-贝氏估计与WinBUGS 在社会科学的应用.ppt

  1. 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
貝氏估計與WinBUGS 在社會科學的應用 蔡佳泓 政大選舉研究中心 貝氏定理基礎 根據機率的定義,聯合機率是條件機率與邊際機率之乘積 Pr(θ, y)=Pr(θ)Pr(y|θ) 故Pr(θ|y)=Pr(θ, y)/Pr(y) =Pr(θ)Pr(y|θ)/Pr(y) 因為Pr(y)可視為常數,故 Pr(θ|y)=Pr(θ)Pr(y|θ) 例子 假設N個選民之中投給歐巴馬的比例為y,N-y投給麥侃,y為一種二元分布 y~(N/y) θy(1- θ)N-y ?Pr(y| θ) 因為Beta分布介於0與1之間,所以是對於二元分布而言是一個合適的先驗資訊Pr(θ) 假設我們的調查資料顯示400個受訪者中有240人投歐巴馬,那麼資料顯示的參數為(240, 160) ,樣本平均值θ為0.6 我們若假設有五成會投歐巴馬,那麼參數為(50, 50) 根據Beta分布,參數為αp+y以及βp+N-y,也就是(290, 210)樣本平均值為αp+y/(αp+y +βp+N-y) = 0.58 R的模擬 R的模擬—4000個樣本 貝氏定理延伸 給定觀察到的資料,研究者對於參數的推論來自於一個先驗的資訊乘上一個概似值 π(θ|data)= π(θ)* f(data| θ) 而π(θ)有可能等於常數, 故π(θ|data)= f(data| θ) 概似(Likelihood) 定義:一個聯合機率由某未知的參數所組成 例:常態分佈yi~N(μ,σ2) i=1,…,n 為了估計μ,σ,使用最大概似法 L (μ,σ2 |y) =ПΦ (yi|μ,σ2) = П[(2πσ2)-1/2 ]exp(-(yi- μ)2/2 σ2]--常態分佈cdf MLE缺點 經由各種MLE的估計方法求出讓該式極大化的μ,σ,例如Newton-Raphson, quasi-Newton, EM algorithm等等。 從估計出的參數,可以得到信賴區間,或是驗證虛無假設,例如係數是否為0。 MLE的估計建立在漸進(asymptotic)假設,也就是需要一定數目的樣本。如果樣本小,那麼需要用Monte-Carlo模擬確定估計的正確性。 貝氏分析1 回到yi~N(θ,σ2) i=1,…,n 假設σ2已知 θ ~N(μ0,τ02) 或f(θ)=exp(-(θ- μ0)2/2τ02) 而f(y| θ,σ2)= П[(2πσ2)-1/2 ] exp(-(yi- θ)2/2 σ2]=exp[(-Σ (yi- θ)2)/2 σ2 ] 貝氏分析2 f(θ |y)= f(θ) ?f(y |θ)= exp(-(θ- μ0)2/2τ02)?exp[(-Σ (yi- θ)2)/2 σ2 ]=exp[(-(θ- μ0)2/2τ02)+ [(-Σ (yi- θ)2)/σ2 )] θ |y~N(μn, τn2) 重點為:posterior mean為先驗資訊的mean與樣本的mean的函數,而posterior variance為先驗τ02與樣本σ2 /n相加之倒數 推論1 當樣本幾近無限大或是先驗的variance無限大,我們得到的mean幾乎等於樣本的mean,而變異數亦將近於樣本的變異數 換句話說,在樣本有限的情況下,若先驗的variance很大,亦即先驗的資訊f(θ)準確性很低,我們仍會得到準確的參數估計(即使看起來跟MLE得到的一致) 推論2 posterior mean = [(1/ τ02) ?μ0+(1/ v) ?y] / [(1/ τ02)+(1/ v) ] 其中v=sample variance/n, y為sample mean 除非τ02很小,不然posterior mean跟sample mean可能只差百分之1或更小 posterior variance=[(1/ τ02)+(1/ v)] Conjugacy(分布家族) MCMC Markov-chain Monte Carlo 利用Markov-chain可以先解決較簡單的條件機率問題,構成更複雜的機率問題。 Monte Carlo 則讓我們從特定分佈中不斷抽樣、儲存、進行參數估計 Gibbs sampler 高階的聯合機率可以化為低階的條件機率 p(x,y,z)=p(x|y,z)p(y|z)p(z) Gibbs sampler 假設有兩個參數θ1, θ2 先從θt-12, data抽樣出θt1 。g(θ1 | θt-12, data) 再從θt1, data抽樣出θt2 。g(θ2 | θt1, data) 當t趨近無限大時,每一對θt1, θt2可視為來自於π(θt1, θ2 | data)的樣本?WinBUGS的方法 * * draws

文档评论(0)

小玉儿 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档