境外开放课程——最近更新(30天)

121
On Convergence of Emphatic Temporal-Difference Learning[强调时间差异学习的收敛性研究]
  Huizhen Yu() 我们考虑了有限空间下折扣马尔可夫决策过程中策略评估的强调时间差分学习算法。这种算法最近由Sutton, Mahmood和White提出,作为一种改进的线性函数近似解离策...
更新时间:2025-04-25 10:19:10

122
On Learning Distributions from their Samples[关于从样本中学习分布]
  Sudeep Kamath() 统计学习中最自然和最重要的问题之一是如何很好地从样本中近似分布。令人惊讶的是,到目前为止,这个问题只解决了几个近似度量,例如kl散度,即使这样,答案也是...
更新时间:2025-04-25 10:18:55

123
Online Density Estimation of Bradley-Terry Models[Bradley-Terry模型的在线密度估计]
  Eiji Takimoto() 我们考虑了Bradley-Terry模型的在线密度估计问题,该问题确定了$n$组中任意对之间匹配结果的概率。一个恼人的问题是损失函数不是凸的。避免非凸性的一个标准解决...
更新时间:2025-04-25 10:18:49

124
On-Line Learning Algorithms for Path Experts with Non-Additive Losses[具有非加性损失的路径专家在线学习算法]
  Vitaly Kuznetsov() 我们考虑了两个广泛的非加性损失函数族,包括大量的应用:理性损失和热带损失。我们给出了将随动前导(FPL)算法扩展到这两类损失函数的新算法,并同样给出了将...
更新时间:2025-04-25 10:18:41

125
On Consistent Surrogate Risk Minimization and Property Elicitation[论一致性代理风险最小化与财产诱导]
  Shivani Agarwal() 代理风险最小化是监督学习的一个流行框架;属性推导是概率预测、机器学习、统计学和经济学中一个被广泛研究的领域。在本文中,我们通过显示监督学习中的校准代理...
更新时间:2025-04-25 10:18:37

126
Norm-Based Capacity Control in Neural Networks[神经网络中基于范数的容量控制]
  Ryota Tomioka() 学习理论是一个致力于研究机器学习算法设计和分析的研究领域。特别是,这样的算法旨在根据观察做出准确的预测或表示。COLT的重点是严格的数学分析,使用各种相关...
更新时间:2025-04-24 09:46:08

127
MOA Concept Drift Active Learning Strategies for Streaming Data[流数据的MOA概念漂移主动学习策略]
  Albert Bifet() 我们提出了一个动态数据流主动学习框架,作为MOA系统的扩展。在学习对流数据进行分类时,获得真实的标签可能需要付出很大的努力,并且可能会产生过高的成本。主...
更新时间:2025-04-24 09:45:57

128
Minimax rates for memory-bounded sparse linear regression[记忆有界稀疏线性回归的极大极小率]
  Jacob Steinhardt() 我们建立了$\Omega\p{\frac{kd}{b\epsilon}}$的极小极大下界,该下界是在给定$b$ bits的$k$-稀疏线性回归中估计维数$d$的参数所需的样本数$d$,其中$\epsilon$是...
更新时间:2025-04-24 09:45:47

129
On the Complexity of Learning with Kernels[论核学习的复杂性]
  Ohad Shamir() 核学习的一个公认的限制是需要处理核矩阵,其大小在训练示例的数量上是二次的。已经提出了许多方法来减少这种计算成本,主要是通过使用核矩阵条目的子集,或某种...
更新时间:2025-04-24 09:45:43

130
On the Complexity of Bandit Linear Optimization[带状线性优化的复杂性]
  Ohad Shamir() 我们研究了带有强盗反馈的在线线性优化问题的可实现遗憾,与全信息设置不同,玩家只能观察到自己的损失,而不是完整的损失向量。我们表明,在这种情况下,强盗信...
更新时间:2025-04-24 09:45:30