境外开放课程——按学科专业列表
开放课程→自然科学→数学→概率论::
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
![](functions/showpic.php?filename=2019042408432727.png)
BoltzRank: Learning to Maximize Expected Ranking Gain[BoltzRank:学习最大化预期排名增益]
Maksims Volkovs(多伦多大学) 根据查询与查询的相关性对一组检索到的文档进行排序是信息检索中的常见问题。学习排名函数的方法很难优化,因为排名表现通常由不平滑的指标来判断。在本文中,我...
热度:142
Maksims Volkovs(多伦多大学) 根据查询与查询的相关性对一组检索到的文档进行排序是信息检索中的常见问题。学习排名函数的方法很难优化,因为排名表现通常由不平滑的指标来判断。在本文中,我...
热度:142
![](functions/showpic.php?filename=2019042408373732.png)
Model-Free Reinforcement Learning as Mixture Learning[无模型强化学习作为混合学习]
Nikos Vlassis(克里特理工大学) 我们将模型自由强化学习作为通过抽样最大化概率混合模型的可能性的问题,解决了现有和夜间情况。我们描述了用于似然最大化的随机逼近算法,在表格的情况下,它等...
热度:122
Nikos Vlassis(克里特理工大学) 我们将模型自由强化学习作为通过抽样最大化概率混合模型的可能性的问题,解决了现有和夜间情况。我们描述了用于似然最大化的随机逼近算法,在表格的情况下,它等...
热度:122
![](functions/showpic.php?filename=2019042408164953.png)
Non-Linear Matrix Factorization with Gaussian Processes[高斯过程的非线性矩阵分解]
Raquel Urtasun(多伦多大学) 协同过滤的一种流行方法是矩阵分解。在本文中,我们考虑“概率矩阵分解”,并通过采用潜变量模型的观点,我们展示了它与贝叶斯PCA的等价性。这激发了我们考虑概...
热度:115
Raquel Urtasun(多伦多大学) 协同过滤的一种流行方法是矩阵分解。在本文中,我们考虑“概率矩阵分解”,并通过采用潜变量模型的观点,我们展示了它与贝叶斯PCA的等价性。这激发了我们考虑概...
热度:115
![](functions/showpic.php?filename=2019042407221786.png)
Bandit-Based Optimization on Graphs with Application to Library Performance Tuning[基于带状图的图优化及其在图书馆性能调优中的应用]
Arpad Rimmel(国家科学研究中心) 为一类递归算法(例如快速傅里叶变换)选择快速实现的问题可以被表达为由适当定义的语法生成的语言的优化问题。我们提出了一种新算法,通过将其减少到最大化有向...
热度:46
Arpad Rimmel(国家科学研究中心) 为一类递归算法(例如快速傅里叶变换)选择快速实现的问题可以被表达为由适当定义的语法生成的语言的优化问题。我们提出了一种新算法,通过将其减少到最大化有向...
热度:46
![](functions/showpic.php?filename=2019042407140389.png)
Probabilistic Dyadic Data Analysis with Local and Global Consistency[具有局部和全局一致性的概率二元数据分析]
Vikas Raykar(马里兰大学) 二元数据出现在许多现实世界的应用中,如社交网络分析和信息检索。为了发现二元数据中的潜在隐藏结构,提出了许多主题建模技术。典型算法包括概率潜在语义分析(...
热度:49
Vikas Raykar(马里兰大学) 二元数据出现在许多现实世界的应用中,如社交网络分析和信息检索。为了发现二元数据中的潜在隐藏结构,提出了许多主题建模技术。典型算法包括概率潜在语义分析(...
热度:49
![](functions/showpic.php?filename=2019042309042922.png)
Topic-Link LDA: Joint Models of Topic and Author Community [主题链接LDA:主题和作者社区的联合模型]
Yan Liu(南加利福尼亚大学) 鉴于大规模链接的文档集合,例如博客文章集或研究文献档案集,有两个基本问题引起了研究界的极大兴趣。一个是确定集合中文档所涵盖的一组高级主题;另一种是揭示...
热度:38
Yan Liu(南加利福尼亚大学) 鉴于大规模链接的文档集合,例如博客文章集或研究文献档案集,有两个基本问题引起了研究界的极大兴趣。一个是确定集合中文档所涵盖的一组高级主题;另一种是揭示...
热度:38
![](functions/showpic.php?filename=2019042308274765.png)
Bayesian Clustering for Email Campaign Detection[用于电子邮件活动检测的贝叶斯聚类]
Peter Haider(波茨坦大学) 我们根据生成它们的源来讨论聚类元素的问题。对于以独立二进制属性为特征的元素,存在闭合形式的贝叶斯解。我们为依赖属性的情况推导出一种解决方案,该解决方案...
热度:14
Peter Haider(波茨坦大学) 我们根据生成它们的源来讨论聚类元素的问题。对于以独立二进制属性为特征的元素,存在闭合形式的贝叶斯解。我们为依赖属性的情况推导出一种解决方案,该解决方案...
热度:14
![](functions/showpic.php?filename=2019042111140288.png)
The Adaptive k-Meteorologists Problem and Its Application to Structure Learning and Feature Selection in Reinforcement Learning[自适应k-气象学问题及其在强化学习中结构学习与特征选择中的应用]
Carlos Diuk(新泽西州立大学) 本文的目的是三折。首先,我们在最近提出的KWIK框架中形式化并研究了学习概率概念的问题。我们给出一种算法的细节,称为自适应k气象学家算法,分析其样本复杂性...
热度:70
Carlos Diuk(新泽西州立大学) 本文的目的是三折。首先,我们在最近提出的KWIK框架中形式化并研究了学习概率概念的问题。我们给出一种算法的细节,称为自适应k气象学家算法,分析其样本复杂性...
热度:70
![](functions/showpic.php?filename=2019042110491486.png)
Tractable Nonparametric Bayesian Inference in Poisson Processes with Gaussian Process Intensities[具有高斯过程强度的泊松过程中的可跟踪非参数贝叶斯推断]
Ryan Prescott Adams(多伦多大学) 非均匀泊松过程是一个点过程,其整个域(通常是时间或空间)具有不同的强度。对于非参数贝叶斯建模,高斯过程是一种在此强度上进行先验分布的有用方法。泊松过程...
热度:101
Ryan Prescott Adams(多伦多大学) 非均匀泊松过程是一个点过程,其整个域(通常是时间或空间)具有不同的强度。对于非参数贝叶斯建模,高斯过程是一种在此强度上进行先验分布的有用方法。泊松过程...
热度:101
![](functions/showpic.php?filename=2019042110464730.png)
Archipelago: Nonparametric Bayesian Semi-Supervised Learning[Archipelago:非参数贝叶斯半监督学习]
Ryan Prescott Adams(多伦多大学) 半监督学习(SSL)是一种分类,可以使用其他未标记的数据来提高准确性。在这种情况下,生成方法很有吸引力,因为数据的概率密度模型可以用于识别聚类。非参数贝...
热度:101
Ryan Prescott Adams(多伦多大学) 半监督学习(SSL)是一种分类,可以使用其他未标记的数据来提高准确性。在这种情况下,生成方法很有吸引力,因为数据的概率密度模型可以用于识别聚类。非参数贝...
热度:101
![](functions/showpic.php?filename=2019042110413757.png)
On Multi-View Active Learning and the Combination with Semi-Supervised Learning[多视图主动学习与半监督学习相结合]
Zhi-Hua Zhou(南京大学) 多视图学习已成为过去几年的热门话题。在本文中,我们首先描述多视图主动学习的样本复杂性。在α扩展假设下,我们得到样本复杂度从通常的Õ(1 /ε)到Õ(log 1 /ε...
热度:179
Zhi-Hua Zhou(南京大学) 多视图学习已成为过去几年的热门话题。在本文中,我们首先描述多视图主动学习的样本复杂性。在α扩展假设下,我们得到样本复杂度从通常的Õ(1 /ε)到Õ(log 1 /ε...
热度:179
![](functions/showpic.php?filename=2019042110171111.png)
Dynamic Non-Parametric Mixture Models and The Recurrent Chinese Restaurant Process[动态非参数混合模型与经常性中餐回流过程]
Eric P. Xing(卡内基梅隆大学) Dirichlet过程混合模型提供了一个灵活的贝叶斯框架,用于估计分布,作为简单分布的无限混合,可以识别数据中的潜在类别[1]。然而,他们使用的完全可交换性假设使...
热度:29
Eric P. Xing(卡内基梅隆大学) Dirichlet过程混合模型提供了一个灵活的贝叶斯框架,用于估计分布,作为简单分布的无限混合,可以识别数据中的潜在类别[1]。然而,他们使用的完全可交换性假设使...
热度:29
![](functions/showpic.php?filename=2019042109255380.png)
Discriminative Parameter Learning for Bayesian Networks[贝叶斯网络的判别参数学习]
Jiang Su(渥太华大学) 贝叶斯网络分类器已被广泛用于分类问题。给定固定的贝叶斯网络结构,参数学习可以采用两种不同的方法:生成性和判别性学习。虽然生成参数学习更有效,但是判别参...
热度:106
Jiang Su(渥太华大学) 贝叶斯网络分类器已被广泛用于分类问题。给定固定的贝叶斯网络结构,参数学习可以采用两种不同的方法:生成性和判别性学习。虽然生成参数学习更有效,但是判别参...
热度:106
![](functions/showpic.php?filename=2019042108513248.png)
Sequential and factorized NML models[顺序和分解的NML模型]
Tomi Silander(赫尔辛基学校) 目前,用于学习贝叶斯网络的最流行的模型选择标准是具有共轭先验的贝叶斯混合。最近报道了该方法对先前超参数的选择非常敏感。另一方面,一般模型选择标准AIC和B...
热度:68
Tomi Silander(赫尔辛基学校) 目前,用于学习贝叶斯网络的最流行的模型选择标准是具有共轭先验的贝叶斯混合。最近报道了该方法对先前超参数的选择非常敏感。另一方面,一般模型选择标准AIC和B...
热度:68
![](functions/showpic.php?filename=2019042108290237.png)
Inverting the Viterbi Algorithm: an Abstract Framework for Structure Design[反维特比算法:结构设计的抽象框架]
Michael Schnall-Levin(麻省理工学院) 诸如隐马尔可夫模型(HMM)和随机上下文无关语法(SCFG)之类的概率语法形式已被广泛研究并广泛应用于许多领域。在这里,我们介绍了一种关于HMM和SCFG的新算法问...
热度:84
Michael Schnall-Levin(麻省理工学院) 诸如隐马尔可夫模型(HMM)和随机上下文无关语法(SCFG)之类的概率语法形式已被广泛研究并广泛应用于许多领域。在这里,我们介绍了一种关于HMM和SCFG的新算法问...
热度:84