首页数理统计学
   首页概率论
   首页数学
0


MDL和贝叶斯方法的收敛性

Convergence of MDL and Bayesian Methods
课程网址: http://videolectures.net/nc04_zhang_cmbm/  
主讲教师: Tong Zhang
开课单位: 新泽西州立罗格斯大学
开课时间: 2007-02-25
课程语种: 英语
中文简介:
我们引入了一种复杂性度量,我们称之为KL复杂度基于这一概念,我们提出了一般信息指数不等式,它测量了一些确定性和随机估计量的统计复杂性。我们表明,从这种方法可以获得简单而干净的有限样本收敛边界。特别是,我们能够改进关于MDL密度估计和贝叶斯后验分布的收敛的一些经典结果
课程简介: We introduce a complexity measure which we call KL-complexity. Based on this concept, we present a general information exponential inequality that measures the statistical complexity of some deterministic and randomized estimators. We show that simple and clean finite sample convergence bounds can be obtained from this approach. In particular, we are able to improve some classical results concerning the convergence of MDL density estimation and Bayesian posterior distributions
关 键 词: KL复杂度; 信息指数; 收敛边界; MDL密度; 叶贝斯方法
课程来源: 视频讲座网
最后编审: 2020-06-08:cxin
阅读次数: 93