境外开放课程——按学科专业列表
开放课程自然科学数学数学分析::

121
Multiplicative Updates for L1-Regularized Linear and Logistic Regression[L1正则线性回归和逻辑回归的乘法更新 ]
  Lawrence Saul(加州大学圣地亚哥分校 ) 事实证明,乘法更新规则在许多机器学习领域都很有用。它们易于实现,保证收敛,它们部分地解释了非负矩阵分解和期望最大化等算法的广泛普及。在本文中,我们展示...
热度:192

122
Optimal Reverse Prediction: A Unified Perspective on Supervised, Unsupervised and Semi-Supervised Learning[最优逆向预测:监督,无监督和半监督学习的统一视角]
  Linli Xu(阿尔伯塔大学) 无监督学习的下雨原则通常源于似乎独立于监督学习的动机,导致半监督训练方法的激增。在本文中,我们通过最优反向预测的概念提出了几种有监督和无监督训练原则的...
热度:32

123
A Stochastic Memoizer for Sequence Data[序列数据的随机存储器]
  Frank Wood(伦敦大学学院) 我们为离散序列数据提出了一个无界深度,分层,贝叶斯非参数模型。该模型可以从单个训练序列估计,但是在子结构符号预测分布之间共享统计强度,例如预测性能很好...
热度:28

124
Model-Free Reinforcement Learning as Mixture Learning[无模型强化学习作为混合学习]
  Nikos Vlassis(克里特理工大学) 我们将模型自由强化学习作为通过抽样最大化概率混合模型的可能性的问题,解决了现有和夜间情况。我们描述了用于似然最大化的随机逼近算法,在表格的情况下,它等...
热度:122

125
Non-Linear Matrix Factorization with Gaussian Processes[高斯过程的非线性矩阵分解]
  Raquel Urtasun(多伦多大学) 协同过滤的一种流行方法是矩阵分解。在本文中,我们考虑“概率矩阵分解”,并通过采用潜变量模型的观点,我们展示了它与贝叶斯PCA的等价性。这激发了我们考虑概...
热度:115

126
Stochastic Methods for L1 Regularized Loss Minimization[L1正则化损失最小化的随机方法]
  Ambuj Tewari(芝加哥丰田技术学院) 我们描述和分析了$ \ ell_1 $正则化损失最小化问题的两种随机方法,例如Lasso。第一种方法在每次迭代时更新单个特征的权重,而第二种方法更新整个权重向量,但在...
热度:37

127
Kernelized Value Function Approximation for Reinforcement Learning[强化学习的核函数值函数逼近]
  Gavin Taylor(杜克大学) 最近,针对强化学习的核心化方法的研究激增,试图将核心机器学习技术的好处带入强化学习。核心强化学习技术相当新,不同的作者用不同的假设和目标来探讨这个主题...
热度:161

128
Fast Gradient-Descent Methods for Temporal-Difference Learning with Linear Function Approximation[线性函数逼近的时差学习快速梯度下降法]
  Richard S. Sutton(阿尔伯塔大学) Sutton,Szepesvari和Maei(2009)最近引入了第一个与线性函数逼近和离开策略训练兼容的时间差分学习算法,其复杂度仅在函数逼近器的大小上线性缩放。虽然它们的...
热度:83

129
A Simpler Unified Analysis of Budget Perceptrons[预算感知的一个更简单的统一分析]
  Ilya Sutskever(多伦多大学) 内核Perceptron是一种吸引人的在线学习算法,它有一个缺点:每当它出错时它必须增加其支持集,如果错误数量很大,这会减慢训练和测试速度。 Forgetron和随机预算...
热度:38

130
Efficient Learning Algorithms for Changing Environments[改变环境的有效学习算法]
  Comandur Seshadhri(剑桥大学) 我们在一个不经意的变化环境中学习在线学习。后悔的标准衡量标准限制了在线学习者的成本与后见之明的最佳决策之间的差异。因此,后悔最小化算法往往会收敛到静态...
热度:74

131
Function Factorization Using Warped Gaussian Processes[利用扭曲高斯过程的函数分解]
  Mikkel N. Schmidt(剑桥大学) 我们引入了一种称为函数分解的非线性回归的新方法,该方法适用于输出变量可以通过输入的非线性函数之间的许多乘法交互项合理建模的问题。该想法是通过较低维子空...
热度:131

132
Bandit-Based Optimization on Graphs with Application to Library Performance Tuning[基于带状图的图优化及其在图书馆性能调优中的应用]
  Arpad Rimmel(国家科学研究中心) 为一类递归算法(例如快速傅里叶变换)选择快速实现的问题可以被表达为由适当定义的语法生成的语言的优化问题。我们提出了一种新算法,通过将其减少到最大化有向...
热度:46

133
Surrogate Regret Bounds for Proper Losses[适当损失的替代后悔界限]
  Mark Reid(澳大利亚国立大学) 我们提出了适当(即费舍尔一致)损失类别的严格替代后悔限制。由于Bartlett等人的出现,边界概括了基于边际的界限。 (2006年)。证明使用泰勒定理并导致新的损...
热度:95

134
Probabilistic Dyadic Data Analysis with Local and Global Consistency[具有局部和全局一致性的概率二元数据分析]
  Vikas Raykar(马里兰大学) 二元数据出现在许多现实世界的应用中,如社交网络分析和信息检索。为了发现二元数据中的潜在隐藏结构,提出了许多主题建模技术。典型算法包括概率潜在语义分析(...
热度:49

135
An Efficient Sparse Metric Learning in High-Dimensional Space via L1-Penalized Log-Determinant Regularization[利用L1-惩罚对数 - 行列式正则化在高维空间中进行有效的稀疏度量学习]
  Guo-Jun Qi(伊利诺伊大学) 本文通过$ \ ell_1 $惩罚对数行列式正则化提出了一种高维空间中的有效稀疏度量学习算法。与现有的距离度量学习算法相比,该算法利用了内在高维特征空间的稀疏性...
热度:92