境外开放课程——按学科专业列表
开放课程自然科学数学数学分析::

46
What cannot be learned with Bethe Approximations[用贝斯近似法不能做到的东西]
  Amir Globerson(耶路撒冷希伯来大学 ) 我们解决了当推理难以处理时学习图形模型中的参数的问题。在这种情况下,常见的策略是用其Bethe近似替换分区函数。然而,关于这种近似的理论性质知之甚少。在这...
热度:83

47
Modern Bayesian Nonparametrics: beyond Dirichlet and Gaussian processes[现代贝叶斯非参数:超越dirichlet和gaussian过程 ]
  Zoubin Ghahramani(剑桥大学) 非参数在贝叶斯建模中起着重要作用:非参数模型具有灵活性,逼真性,并且通过提供良好的覆盖范围可以防止模型不足。现代贝叶斯非参数化基于对Dirichlet和高斯过...
热度:55

48
Submodularity and Discrete Convexity[子模性与离散凸性 ]
  Satoru Fujishige(京都大学) 本讲是一个教程,给出了子模函数和离散凸性的一些本质。我的演讲内容如下:#子模和超模函数##子模块##分配格和集(Birkhoff Iri)#Submodular系统和超模系统##...
热度:165

49
Bayesian Interpretations of RKHS Embedding Methods[rkhs嵌入方法的贝叶斯解释 ]
  David Kristjanson Duvenaud(多伦多大学 ) 我们在高斯过程先验下给出了平均嵌入作为期望的简单解释。诸如内核两个样本测试,Hilbert Schmidt独立性标准和内核放牧等方法都基于平均嵌入之间的距离,也称为...
热度:81

50
The Kernel Beta Process[内核测试过程]
  Lawrence Carin(杜克大学) 对于处理大规模问题,诸如高斯过程之类的方法在计算上具有挑战性。在本文中,我们讨论如何使用替代内核方法来加速计算,而不会损失建模能力。我们在一般非参数贝...
热度:69

51
Steppest descent analysis for unregularized linear prediction with strictly convex penalties
  Matus Telgarsky(加州大学圣地亚哥分校) 该手稿提供了一种收敛性分析,该研究从对非均匀化线性预测的推动研究中得出。在这里,经验风险 - 包括由线性项组成的严格凸罚 - 可能不会强烈凸,甚至达不到最小...
热度:35

52
Fast first-order methods for convex optimization with line search[线性搜索凸优化的快速一阶方法]
  Katya Scheinberg(里海大学) 我们建议使用非单调选择prox参数的加速一阶方法,它基本上控制步长。这与大多数加速方案形成对比,其中prox参数被假定为常数或非增加。特别地,我们证明了回溯策...
热度:74

53
Inferring a measure of physiological age from multiple ageing related phenotypes[从多个衰老相关表型推断生理年龄 ]
  David Knowles(剑桥大学) 什么是老化?一个定义是多器官系统的同时降解。一个人可以用科学上有意义的方式对他们(按时间顺序)的年龄说“老”或“年轻”吗?我们使用在Twins UK研究中对12...
热度:39

54
Combinatorial prediction games[组合预测对策 ]
  Nicolò Cesa-Bianchi(米兰大学 ) 组合预测游戏是在线线性优化的问题,其中动作空间是组合空间。这些游戏可以在不同的反馈模型下进行研究:全部,半强盗和土匪。在演讲的第一部分,我们将描述有关...
热度:34

55
Alternating Direction Method of Multipliers[乘子交替方向法 ]
  Stephen P. Boyd(斯坦福大学) 诸如机器学习和大型网络上的动态优化等领域中的问题导致极大的凸优化问题,问题数据以分散的方式存储,并且处理元件分布在网络上。我们认为乘法器的交替方向方法...
热度:301

56
A Gaussian Process View on MKL[关于mkl的高斯过程观点]
  Raquel Urtasun(多伦多大学 ) 高斯过程(GP)为多核学习(MKL)提供了吸引人的概率框架。对于超过adecade,通常的做法是通过例如最大似然估计来学习内核的知识。在本讲中,我将首先介绍内核的...
热度:58

57
Averaging algorithms and distributed optimization[平均算法与分布式优化 ]
  John N. Tsitsiklis(麻省理工学院) 在分布式平均和一致性算法中,处理器通过用其邻居的值形成局部平均值来交换和更新某些值(或“估计”或“意见”)。在合适的条件下,此类算法收敛于一致(每个处...
热度:47

58
Various Formulations for Learning the Kernel and Structured Sparsity[学习内核和结构稀疏性的各种公式 ]
  Massimiliano Pontil(伦敦大学学院) 我将回顾一种学习内核的方法,该方法包括在规定的内核矩阵集上最小化凸目标函数。我将建立这个问题的一些重要特性,并从特征空间的角度对其进行重新表述。这个设...
热度:37

59
Augmenting Dual Decomposition for MAP Inference[MAP推理的增广对偶分解 ]
  André F. T. Martins(卡内基梅隆大学) 在本文中,我们提出将增广拉格朗日优化与双重分解方法相结合,以获得因子图上的近似MAP(最大后验)推断的快速算法。我们还展示了所提出的算法如何有效地处理(...
热度:52

60
Dual decomposition for inference in natural language processing[自然语言处理中推理的对偶分解 ]
  Terry Koo(麻省理工学院) 利用双重分解或拉格朗日松弛等方法,在复杂问题中利用结构的方法进行组合优化已有很长的历史。这些方法利用了复杂推理问题通常可以分解为有效可解的子问题的观察...
热度:78