境外开放课程——按学科专业列表
开放课程自然科学数学概率论::

31
A Gaussian Process View on MKL[关于mkl的高斯过程观点]
  Raquel Urtasun(多伦多大学 ) 高斯过程(GP)为多核学习(MKL)提供了吸引人的概率框架。对于超过adecade,通常的做法是通过例如最大似然估计来学习内核的知识。在本讲中,我将首先介绍内核的...
热度:58

32
Linear Bellman Equations: Theory and Applications[线性bellman方程:理论与应用 ]
  Emanuel Todorov(华盛顿大学) 我将简要概述我们小组以及Bert Kappen小组最近开发的一类随机最优控制问题。该问题类非常通用,但具有许多独特的性质,包括指数变换(Hamilton Jacobi)Bellman...
热度:55

33
Multitask Learning Using Nonparametrically Learned Predictor Subspaces[基于非参数学习预测子空间的多任务学习 ]
  Piyush Rai(犹他大学) 给定几个相关的学习任务,我们提出了一种非参数贝叶斯学习模型,它通过假设任务参数(即权重向量)共享潜在子空间来捕获任务相关性。更具体地说,该子空间的内在...
热度:83

34
Probabilistic Control in Human Computer Interaction[人机交互中的概率控制 ]
  Roderick Murray-Smith(格拉斯哥大学) 与计算机的持续交互可以被视为受各种不确定性来源的控制问题。我们提出了基于多个噪声传感器(电容传感,位置和轴承传感和EEG)的交互实例,这些传感器依赖于对...
热度:58

35
Borrowing Strength, Learning Vector Valued Functions and Supervised Dimension Reduction[借用强度、学习向量值函数与监督降维]
  Sayan Mukherjee(杜克大学) 我们从学习向量值函数和多任务或分层建模的角度研究了有监督降维问题。提供了一种算法,并提供了经验结果。在演讲的第二部分中,从非参数贝叶斯视角重新审视了分...
热度:57

36
Estimating the Sources of Motor Errors[估计运动误差的来源 ]
  Konrad Körding(西北大学) 运动适应通常被定义为我们的神经系统产生精确运动的过程,同时我们的身体和环境的特性不断变化。许多实验和理论研究通过假设神经系统使用内部模型来补偿运动误差...
热度:58

37
Spectral learning of linear dynamics from generalisedlinear observations with application to neural population data[线性动力学的谱学从广义线性观测到应用于神经种群数据]
  Lars Buesing(伦敦大学学院) 具有广义线性观测模型的潜在线性动力系统在各种应用中出现,例如在对神经元群体的尖峰活动进行建模时。在这里,我们展示了如何利用高斯观测(通常在这种情况下通...
热度:53

38
Modelling Genetic Variations with Fragmentation-Coagulation Processes[用碎片-凝固过程模拟遗传变异]
  Yee Whye Teh(牛津大学) 我们提出了一类新的贝叶斯非参数模型用于序列数据,称为碎裂凝固过程(FCPs)。 FCP使用分区值马尔可夫过程对一组序列建模,该过程通过分裂和合并群集而发展。 F...
热度:39

39
k-NN Regression Adapts to Local Intrinsic Dimension[k-NN回归适应于局部固有维数]
  Samory Kpotufe(普林斯顿大学) 最近显示许多非参数回归量的收敛速度仅取决于数据的内在维度。因此,当高维数据具有低内在尺寸(例如,歧管)时,这些回归量摆脱了维度的诅咒。我们证明$ k $ NN...
热度:73

40
Accelerated Adaptive Markov Chain for Partition Function Computation[加速自适应马尔可夫链配分函数计算]
  Stefano Ermon(康奈尔大学) 我们提出了一种新的自适应马尔可夫链蒙特卡罗算法来计算分区函数。特别地,我们展示了如何通过显着减少链中“空移动”的数量来加速平直方图采样技术,同时保持渐...
热度:34

41
Exact learning curves for Gaussian process regression on large random graphs[随机大图中高斯过程回归的精确学习曲线]
  Matthew Urry(伦敦国王学院) 我们研究高斯过程回归的学习曲线,其根据给定大小的数据集上的平均贝叶斯误差来表征性能。虽然学习曲线通常很难计算,但我们表明,对于离散输入域,输入点之间的...
热度:87

42
Linear Complementarity for Regularized Policy Evaluation and Improvement[正规化政策评价与改进的线性互补]
  Jeff Johns(杜克大学) 最近在强化学习方面的工作强调了L1正则化的功能,以执行特征选择和防止过度拟合。我们提出将L1正则化线性不动点问题公式化为线性互补问题(LCP)。这种配方与LAR...
热度:37

43
Non-Parametric Bayesian Dictionary Learning for Sparse Image Representations[稀疏图像表示的非参数贝叶斯字典学习]
  Mingyuan Zhou(杜克大学) 非参数贝叶斯技术被考虑用于稀疏图像表示的学习词典,其应用于去噪,修复和压缩感测(CS)。 β过程被用作学习字典的先验,并且该非参数方法自然地推断出适当的...
热度:64

44
Locality-Sensitive Binary Codes from Shift-Invariant Kernels[移位不变内核中的位置敏感二进制代码]
  Maxim Raginsky(杜克大学) 本文讨论了为高维数据设计二进制代码的问题,使得原始空间中相似的向量映射到类似的二进制字符串。我们引入基于随机投影的简单无分布编码方案,使得两个矢量的二...
热度:64

45
On Stochastic and Worst-case Models for Investing[关于投资的随机和最坏情况模型]
  Elad Hazan(以色列理工学院) 在实践中,大多数投资是在假设股票价格回报的概率模型(称为几何布朗运动(GBM))的情况下完成的。虽然它通常是可接受的近似值,但GBM模型并不总是凭经验有效。...
热度:36