境外开放课程——按学科专业列表
开放课程自然科学数学::

571
Alternating Direction Method of Multipliers[乘子交替方向法 ]
  Stephen P. Boyd(斯坦福大学) 诸如机器学习和大型网络上的动态优化等领域中的问题导致极大的凸优化问题,问题数据以分散的方式存储,并且处理元件分布在网络上。我们认为乘法器的交替方向方法...
热度:301

572
Quasar classification and characterization from broadband multi-filter, multi-epoch data sets[基于宽带多滤波多历元数据集的类星体分类与表征 ]
  Jo Bovy(普林斯顿大学 ) 类星体 - 主动吸积超大质量黑洞 - 是宇宙中最明亮的物体之一。类星体的大样本可用于研究主题,包括膨胀宇宙学,宇宙历史过程中黑洞增长的演变,以及天体物理黑洞...
热度:33

573
Multitask Multiple Kernel Learning (MT-MKL)[多任务多核学习(MTMKL)]
  Christian Widmer(图宾根大学 ) 缺乏足够的训练数据是计算生物学中许多机器学习应用的限制因素。如果数据可用于几个不同但相关的问题域,则可以使用多任务学习算法基于所有可用信息来学习模型。...
热度:74

574
A Gaussian Process View on MKL[关于mkl的高斯过程观点]
  Raquel Urtasun(多伦多大学 ) 高斯过程(GP)为多核学习(MKL)提供了吸引人的概率框架。对于超过adecade,通常的做法是通过例如最大似然估计来学习内核的知识。在本讲中,我将首先介绍内核的...
热度:58

575
Averaging algorithms and distributed optimization[平均算法与分布式优化 ]
  John N. Tsitsiklis(麻省理工学院) 在分布式平均和一致性算法中,处理器通过用其邻居的值形成局部平均值来交换和更新某些值(或“估计”或“意见”)。在合适的条件下,此类算法收敛于一致(每个处...
热度:47

576
Limited-memory quasi-Newton and Hessianfree Newton methods for non-smooth optimization[有限记忆拟牛顿和Hessianfree牛顿非光滑优化方法]
  Mark Schmidt(不列颠哥伦比亚大学 ) 有限记忆准牛顿和Hessian自由Newtonmethods是高维平滑目标无约束优化的两个主力。然而,在许多情况下,我们希望优化由于存在“简单”非平滑正则化项而不平滑的高...
热度:63

577
Various Formulations for Learning the Kernel and Structured Sparsity[学习内核和结构稀疏性的各种公式 ]
  Massimiliano Pontil(伦敦大学学院) 我将回顾一种学习内核的方法,该方法包括在规定的内核矩阵集上最小化凸目标函数。我将建立这个问题的一些重要特性,并从特征空间的角度对其进行重新表述。这个设...
热度:37

578
Augmenting Dual Decomposition for MAP Inference[MAP推理的增广对偶分解 ]
  André F. T. Martins(卡内基梅隆大学) 在本文中,我们提出将增广拉格朗日优化与双重分解方法相结合,以获得因子图上的近似MAP(最大后验)推断的快速算法。我们还展示了所提出的算法如何有效地处理(...
热度:52

579
Dual decomposition for inference in natural language processing[自然语言处理中推理的对偶分解 ]
  Terry Koo(麻省理工学院) 利用双重分解或拉格朗日松弛等方法,在复杂问题中利用结构的方法进行组合优化已有很长的历史。这些方法利用了复杂推理问题通常可以分解为有效可解的子问题的观察...
热度:79

580
Learning Kernels via Margin-and-Radius Ratios[利用边距和半径比学习核函数 ]
  Kun Gai(清华大学) 大多数现有的MKL方法都采用大边缘原则来学习内核。但是,我们指出,由于缩放的疏忽,marginitself无法很好地描述内核的优点。我们使用赋予内核的特征空间中数据...
热度:37

581
Information Theoretic Model Validation by Approximate Optimization[信息论模型的近似优化验证 ]
  Joachim M. Buhmann(苏黎世理工学院) 模式识别中的模型选择需要(i)为数据解释指定合适的成本函数,以及(ii)根据数据中的噪声水平控制自由度。我们提倡信息理论视角,其中测量中的不确定性量化了...
热度:39

582
Multiple Gaussian Process Models[多高斯过程模型]
  Cedric Archambeau(伦敦大学学院) 我们考虑了多核学习问题的高斯过程公式。目的是选择核心矩阵的凸组合来实现数据的简化,并通过这样做来改进对看不见的数据的泛化。通过采用分层来获得核权重的稀...
热度:98

583
Supervised and Localized Dimensionality Reduction from Multiple Feature Representations or Kernels[基于多特征表示或内核的监督和局部降维 ]
  Ethem Alpaydin(博阿齐奇大学) 我们提出了一种监督和局部降维方法,它结合了多个特征表示或内核。每个特征表示orkernel用于适合通过监督管理器中的参数选通模型进行有效降维和分类的情况,并且...
热度:37

584
Joint Max Margin and Max Entropy Learning of Graphical Models[图形模型的最大边际和最大熵联合学习 ]
  Eric P. Xing(卡内基梅隆大学) 基于相关协变量推断结构化预测仍然是许多领域的核心问题,包括NLP,计算机视觉和计算生物学。用于训练结构化输入/输出模型的流行范例包括最大(条件)似然估计,...
热度:63

585
Multi-Task Learning with Gaussian Processes with Applications to Robot Inverse Dynamics[高斯过程多任务学习及其在机器人逆动力学中的应用 ]
  Chris Williams(爱丁堡大学) 我将讨论多任务学习,以及可以在任务之间进行转换的多种方式,主要是在co kriging(或高斯过程)框架中。然后,我将详细介绍机器人逆动力学的多任务高斯过程学习...
热度:105