境外开放课程——按学科专业列表
开放课程→自然科学→数学→函数论::
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
![](functions/showpic.php?filename=2019042109235070.png)
Gaussian Process Product Models for Nonparametric Nonstationarity[非参数非平稳性的高斯过程产品模型]
Oliver Stegle(马克斯普朗克研究所) 对于高斯过程回归,平稳性通常是不现实的先验假设。一种解决方案是预定义明确的非平稳协方差函数,但是这种协方差函数可能难以指定并且需要详细的非平稳性的先验...
热度:69
Oliver Stegle(马克斯普朗克研究所) 对于高斯过程回归,平稳性通常是不现实的先验假设。一种解决方案是预定义明确的非平稳协方差函数,但是这种协方差函数可能难以指定并且需要详细的非平稳性的先验...
热度:69
![](functions/showpic.php?filename=2019042109204119.png)
Detecting Statistical Interactions with Additive Groves of Trees[用树的附加树枝检测统计相互作用]
Daria Sorokina(康奈尔大学) 发现附加结构是理解复杂多维函数的重要步骤,因为它允许函数表示为较低维度分量的总和。然而,当变量相互作用时,它们的效果不是相加的,必须同时建模和解释。我...
热度:79
Daria Sorokina(康奈尔大学) 发现附加结构是理解复杂多维函数的重要步骤,因为它允许函数表示为较低维度分量的总和。然而,当变量相互作用时,它们的效果不是相加的,必须同时建模和解释。我...
热度:79
![](functions/showpic.php?filename=2019041909104713.png)
An Analysis of Linear Models, Linear Value-Function Approximation, and Feature Selection for Reinforcement Learning[强化学习的线性模型,线性值 - 函数逼近和特征选择分析]
Ronald Parr(杜克大学 ) 我们证明线性值函数逼近等价于线性模型近似的一种形式。我们推导出模型逼近误差与Bellman误差之间的关系,并展示了这种关系如何指导特征选择以进行模型改进和/或...
热度:102
Ronald Parr(杜克大学 ) 我们证明线性值函数逼近等价于线性模型近似的一种形式。我们推导出模型逼近误差与Bellman误差之间的关系,并展示了这种关系如何指导特征选择以进行模型改进和/或...
热度:102
![](functions/showpic.php?filename=2019041709182541.png)
Learning All Optimal Policies with Multiple Criteria[学习具有多个标准的所有最优策略]
Leon Barrett(加州大学伯克利分校) 我们描述了在存在多个标准的情况下进行学习的算法。我们的技术概括了以前的方法,因为它可以通过多个奖励标准学习任何线性偏好分配的最优策略。该算法可被视为MD...
热度:78
Leon Barrett(加州大学伯克利分校) 我们描述了在存在多个标准的情况下进行学习的算法。我们的技术概括了以前的方法,因为它可以通过多个奖励标准学习任何线性偏好分配的最优策略。该算法可被视为MD...
热度:78
![](functions/showpic.php?filename=2019041709152328.png)
Nonparametric Bayesian Density Modeling with Gaussian Processes[高斯过程的非参数贝叶斯密度建模]
Ryan Prescott Adams(多伦多大学) 我们提出了高斯过程密度采样器(GPDS),一种可交换的生成模型,用于非参数贝叶斯密度估计。从GPDS中提取的样本与来自固定密度函数的精确,独立样本一致,该函数...
热度:112
Ryan Prescott Adams(多伦多大学) 我们提出了高斯过程密度采样器(GPDS),一种可交换的生成模型,用于非参数贝叶斯密度估计。从GPDS中提取的样本与来自固定密度函数的精确,独立样本一致,该函数...
热度:112
![](functions/showpic.php?filename=2019041709085679.png)
Learning to Combine Distances for Complex Representations[学习结合复杂表示的距离]
Adam Woznica(日内瓦大学) 只要在输入空间上给出适当的相异度函数,k近邻算法可以容易地适用于对复杂对象(例如集合,图形)进行分类。学习实例的表示和在该表示上使用的不相似性都应该基...
热度:61
Adam Woznica(日内瓦大学) 只要在输入空间上给出适当的相异度函数,k近邻算法可以容易地适用于对复杂对象(例如集合,图形)进行分类。学习实例的表示和在该表示上使用的不相似性都应该基...
热度:61
![](functions/showpic.php?filename=2019041708472371.png)
Best Paper - Information-Theoretic Metric Learning[最佳论文 - 信息理论度量学习]
Brian Kulis(德克萨斯大学) 在本文中,我们提出了一种学习马哈拉诺比斯距离函数的信息理论方法。我们将问题表述为在距离函数约束下最小化两个多元高斯之间的微分相对熵的问题。我们将此问题...
热度:207
Brian Kulis(德克萨斯大学) 在本文中,我们提出了一种学习马哈拉诺比斯距离函数的信息理论方法。我们将问题表述为在距离函数约束下最小化两个多元高斯之间的微分相对熵的问题。我们将此问题...
热度:207
![](functions/showpic.php?filename=2019040304084329.jpg)
Clustering Rankings in the Fourier Domain[傅立叶域中的聚类排名分析]
Romaric Gaudel(法国国家信息与自动化研究所) 本文的目的是引入一种新方法,将秩数据聚类在一组可能较大的基数n∈ℕ*上,依赖于在对称群上定义的函数的傅里叶表示。在目前的设置中,涵盖了各种各样的实际情况...
热度:89
Romaric Gaudel(法国国家信息与自动化研究所) 本文的目的是引入一种新方法,将秩数据聚类在一组可能较大的基数n∈ℕ*上,依赖于在对称群上定义的函数的傅里叶表示。在目前的设置中,涵盖了各种各样的实际情况...
热度:89
![](functions/showpic.php?filename=2019032312405110.png)
One-class Classification by Combining Density and Class Probability Estimation[密度估计与类概率相结合的一类分类]
Kathryn Hempstalk, Eibe Frank, Ian H. Witten(怀卡托大学) 一类分类具有重要的应用,例如异常值和新颖性检测。通常使用密度估计技术或通过使标准分类算法适应于划出描述目标数据的位置的决策边界的问题来解决它。在本文中...
热度:76
Kathryn Hempstalk, Eibe Frank, Ian H. Witten(怀卡托大学) 一类分类具有重要的应用,例如异常值和新颖性检测。通常使用密度估计技术或通过使标准分类算法适应于划出描述目标数据的位置的决策边界的问题来解决它。在本文中...
热度:76
![](functions/showpic.php?filename=2019032008023978.png)
Diverse M-Best Solutions in Markov Random Fields[马尔可夫随机场中的多样化M-Best的解法]
Laurent Itti, Dhruv Batra, Ramin Zabih(佐治亚理工学院) 已经针对用于在概率(随机场)模型中获得最高概率(MAP)配置的算法进行了很多努力。在许多情况下,人们可以从额外的高概率解决方案中受益。用于计算M个最可能配...
热度:46
Laurent Itti, Dhruv Batra, Ramin Zabih(佐治亚理工学院) 已经针对用于在概率(随机场)模型中获得最高概率(MAP)配置的算法进行了很多努力。在许多情况下,人们可以从额外的高概率解决方案中受益。用于计算M个最可能配...
热度:46
![](functions/showpic.php?filename=2019022703011746.png)
A Theoretical Analysis of NDCG Type Ranking Measures[NDCG类型排序测度的理论分析]
Liwei Wang(北京大学) 在信息检索,机器学习和统计方面对排名进行了广泛的研究。排名的核心问题是设计用于评估排名函数的排名度量。倾向于排名方法的现有技术通常通过使用排名度量作为...
热度:63
Liwei Wang(北京大学) 在信息检索,机器学习和统计方面对排名进行了广泛的研究。排名的核心问题是设计用于评估排名函数的排名度量。倾向于排名方法的现有技术通常通过使用排名度量作为...
热度:63
![](functions/showpic.php?filename=2019031009075381.png)
On the Complexity of Bandit and Derivative-Free Stochastic Convex Optimization[论强盗与无导数随机凸优化的复杂性]
Ohad Shamir(魏茨曼科学研究所) 近年来,以算法和性能上限的形式,利用强盗反馈(在学习社区中)或不具有梯度知识(在优化社区中)的随机凸优化问题已经受到很多关注。然而,对于这些问题的固有...
热度:110
Ohad Shamir(魏茨曼科学研究所) 近年来,以算法和性能上限的形式,利用强盗反馈(在学习社区中)或不具有梯度知识(在优化社区中)的随机凸优化问题已经受到很多关注。然而,对于这些问题的固有...
热度:110
![](functions/showpic.php?filename=2019031008505585.png)
Estimation of Extreme Values and Associated Level Sets of a Regression Function via Selective Sampling[通过选择性采样估计回归函数的极值和相关水平集]
Stanislav Minsker(杜克大学) 我们提出了一种新方法,用于估计受随机噪声污染的观测值的函数绝对最大值(最小值)的位置和值。我们的目标是在最小的规律性和形状约束下解决问题。特别是,我们...
热度:77
Stanislav Minsker(杜克大学) 我们提出了一种新方法,用于估计受随机噪声污染的观测值的函数绝对最大值(最小值)的位置和值。我们的目标是在最小的规律性和形状约束下解决问题。特别是,我们...
热度:77
![](functions/showpic.php?filename=2019030708382319.png)
Active and passive learning of linear separators under log-concave distributions[对数凹分布下线性分选器的主动和被动学习]
Maria-Florina Balcan(乔治亚理工学院) 证明了在接近对数凹分布的情况下,齐次线性分选器的主动学习比被动学习有指数级的改进。在此基础上,我们提出了一种计算效率较高的PAC算法,该算法具有最优的样...
热度:65
Maria-Florina Balcan(乔治亚理工学院) 证明了在接近对数凹分布的情况下,齐次线性分选器的主动学习比被动学习有指数级的改进。在此基础上,我们提出了一种计算效率较高的PAC算法,该算法具有最优的样...
热度:65
![](functions/showpic.php?filename=2019030504511078.png)
On the Consistency of Multi-Label Learning[论多标签学习的一致性]
Wei Gao(南京大学) 多标签学习在过去几年中引起了很多关注。已经开发了许多多标记学习方法,主要用于替代损失函数,因为由于非凸性和不连续性,多标记丢失函数通常难以直接优化。尽...
热度:123
Wei Gao(南京大学) 多标签学习在过去几年中引起了很多关注。已经开发了许多多标记学习方法,主要用于替代损失函数,因为由于非凸性和不连续性,多标记丢失函数通常难以直接优化。尽...
热度:123